Vale a pena criar um “ChatGPT brasileiro”? O que realmente muda com um LLM próprio
Enquanto o governo brasileiro planeja seu próprio LLM em português e startups como a Clarice.ai levantam capital para criar o “ChatGPT brasileiro”, executivos seguem rodando seus pilotos em modelos es...
Enquanto o governo brasileiro planeja seu próprio LLM em português e startups como a Clarice.ai levantam capital para criar o “ChatGPT brasileiro”, executivos seguem rodando seus pilotos em modelos estrangeiros como GPT, Gemini e Claude. Vale mesmo a pena investir em um modelo de linguagem próprio no Brasil ou é melhor “alugar” a inteligência dos gigantes globais? A resposta passa por custo, regulação, privacidade de dados, nuances culturais – e pelo tamanho real da sua ambição em IA.

Panorama: um país que usa muito IA, mas pensa com cérebro importado
O Brasil entrou de cabeça na IA generativa. Em pesquisa citada pela Geekie, mais da metade dos brasileiros afirmou ter usado inteligência artificial no ano anterior, numa proporção acima da média global. Na educação, o ChatGPT virou ferramenta de trabalho: professores montam planos de aula, criam exercícios, pedem explicações alternativas para alunos com dificuldade; estudantes usam para tirar dúvidas e organizar redações. A percepção também mudou rápido: cerca de três em cada quatro brasileiros já veem IA como algo importante para estudar.
Do lado das empresas, a curva é semelhante. Levantamento da Bain indica que um quarto das companhias brasileiras já tinha, em 2025, ao menos um caso de uso estruturado em IA, o dobro do ano anterior. A IA generativa entrou para a lista de prioridades estratégicas de dois terços das organizações; em parte delas, já é o principal foco de investimento em tecnologia.
Por trás desse uso intenso, quase tudo roda em modelos estrangeiros acessados via API. O Brasil aparece entre os mercados que mais usam IA generativa, mas a “cabeça” segue hospedada em data centers de gigantes globais.
Brasil heavy user, cérebro alugado
Na prática, o ChatGPT virou a porta de entrada. Guias educativos o apresentam como “assistente digital” para responder dúvidas, organizar conteúdo, propor atividades e explicar temas espinhosos em linguagem simples. No comércio e serviços, entidades empresariais destacam redução de custos, respostas em tempo real e automatização de atendimento.
No mundo corporativo, squads de tecnologia testam GPT‑4o e concorrentes para copilotos de código, bots de atendimento, geração de relatórios, análise de documentos jurídicos, apoio a marketing e até suporte interno de RH. Tudo isso, muitas vezes, com um freio de mão puxado: regras de LGPD, medo de vazamento de informação estratégica e preocupação com Bacen, ANPD, CVM e outros reguladores levam muitos projetos a rodar em ambientes isolados, com forte controle sobre o que é enviado ao modelo.
Quem está tentando construir um LLM “made in Brazil”
Enquanto a maioria aluga poder de processamento lá fora, uma minoria decidiu tentar desenhar o próprio cérebro.
O governo federal incluiu um grande modelo de linguagem em português no Plano Brasileiro de Inteligência Artificial. A proposta, segundo o Ministério da Ciência, Tecnologia e Inovação, é treinar um LLM nacional em bases públicas, apoiado em um supercomputador e novos data centers. O Serpro já anunciou planos de montar uma base com dados de governo para alimentar esse modelo.
Esse movimento conversa com o novo marco legal de IA. O projeto de lei 2.338/23, aprovado no Senado em dezembro de 2024, cria regras específicas para IA generativa e exige avaliação preliminar de risco antes do lançamento de sistemas de propósito geral, como GPT e Gemini. No governo, isso pesa: adotar um modelo estrangeiro treinado com material de origem pouco transparente – em meio a acusações sobre uso de conteúdo protegido sem autorização por grandes empresas de tecnologia – é o tipo de risco jurídico que ninguém quer assinar.
No setor privado, o caso mais barulhento é a Clarice.ai. Focada em escrita e revisão em português brasileiro, a startup levantou R$ 2,5 milhões em uma rodada pre‑seed para desenvolver seu próprio LLM em pt‑BR. A plataforma já soma centenas de milhares de usuários e alcançou receita de sete dígitos em 12 meses, atendendo escritores, advogados, profissionais de marketing, jornalistas e criadores de conteúdo.
O diferencial, segundo o fundador Felipe Iszlaji, é tratar o português brasileiro como idioma nativo, não como adaptação de um modelo treinado para o inglês. Na visão dele, isso reduz erros de tom, estilo e intenção – algo crítico em áreas como direito e comunicação.
Além dela, há laboratórios acadêmicos, iniciativas em saúde, consórcios jurídicos e projetos internos de grandes bancos, varejistas, seguradoras e empresas de telecom que miram modelos menores, fechados, treinados com dados próprios. A meta aí não é “vencer o ChatGPT”, mas ter cérebros domésticos, muitas vezes rodando on‑premise, para tarefas específicas.
Como os LLMs globais dominam o jogo hoje
Mesmo com esse caldo de iniciativas nacionais, o padrão de mercado em 2025 continua claro: usar modelos globais como fundação.
O ChatGPT, lançado em novembro de 2022, virou um fenômeno ao alcançar dezenas de milhões de usuários em poucas semanas e se consolidou como símbolo da IA generativa. Ele aparece em textos de educação, marketing, negócios e varejo como ferramenta “sensação”, capaz de escrever textos em segundos, responder questões complexas e apoiar estudos em diferentes níveis.
Concorrentes como Gemini e Claude seguem lógica parecida: modelos gerais, multimodais, treinados em dados em escala de internet e oferecidos de forma relativamente simples via API. Documentação técnica desses serviços ressalta a atualização constante, com versões mais avançadas – como o GPT‑4o, que lida com texto, imagem, áudio e vídeo de forma integrada – sendo lançadas em ciclos de meses.
Há ainda o fator preço. A mesma Bain aponta que o custo de uso de grandes modelos caiu cerca de 95% desde 2022. Em outras palavras: hoje é muito mais barato alugar um modelo de ponta do que há três anos – e muito mais barato do que tentar construir algo comparável do zero.
O argumento a favor: o que um LLM brasileiro pode entregar de diferente
Defender um LLM nacional não é só patriotismo tecnológico. Há razões concretas, especialmente para governo, setores regulados e empresas que dependem intensamente de contexto local.
Português brasileiro como língua nativa, não versão dublada
Quase todos os grandes LLMs globais nasceram pensando em inglês e foram ganhando, depois, “camadas” de outros idiomas, incluindo o português. Funciona razoavelmente bem na maioria das tarefas, mas o detalhe importa.
A tese central da Clarice.ai é justamente essa: modelos desenhados primeiro para inglês e adaptados depois tendem a escorregar em nuances finas de estilo, concordância, colocação pronominal e registro (formal, coloquial, jurídico). Para alguém corrigindo uma petição, revisando uma campanha publicitária ou lapidando uma reportagem, esses deslizes deixam de ser detalhe.
Quando nuances não são luxo: direito, contabilidade e linguagem real
Alguns contextos tornam a necessidade de um “português nativo” ainda mais evidente:
- Direito e contabilidade brasileiros, com siglas, nomes de tributos e peculiaridades de jurisprudência local.
- Documentos típicos do país: notas fiscais, contratos padrão, peças processuais em formatos definidos por tribunais.
- Variações regionais: expressões usadas em contextos rurais, periferias urbanas ou regiões específicas, que raramente aparecem em grande volume em datasets globais.
Não por acaso, escritórios de advocacia e departamentos jurídicos de grandes empresas já se veem diante de uma escolha prática: seguir com um GPT genérico ou migrar para soluções afinadas em jurisprudência brasileira, com menor taxa de erro em nomes de tribunais, prazos prescricionais e citações de lei.
Dados, LGPD e marco de IA: soberania deixa de ser abstrata
No fundo, discutir um LLM brasileiro é discutir também LGPD e o novo marco de IA.
A LGPD, frequentemente descrita como uma versão brasileira do GDPR, tem alcance amplo: qualquer organização que trate dados de pessoas no Brasil precisa cumpri‑la, independentemente de onde o servidor esteja. A lei adota uma visão extensa de dado pessoal – incluindo informações que, combinadas, permitem identificar alguém – e exige consentimento, finalidade específica, minimização, transparência e direitos de acesso e correção.
O projeto de marco de IA dá mais uma volta nesse parafuso ao prever que sistemas de IA generativa e de propósito geral passem por avaliação preliminar de risco antes de serem ofertados. Isso inclui maior transparência sobre funcionamento, mitigação de riscos a direitos fundamentais e atenção redobrada a desinformação e manipulação.
Soberania prática: onde os dados ficam, quem responde
Nesse cenário, um LLM nacional, principalmente se hospedado em nuvens locais ou infraestrutura própria, facilita a vida de quem precisa prestar contas a reguladores:
- É mais fácil mostrar com clareza por onde os dados trafegam e onde são armazenados.
- A governança sobre logs, retenção e anonimização pode ser desenhada diretamente para a LGPD e para a ANPD.
- Bacen, CVM, reguladores de saúde e de educação tendem a olhar com menos desconfiança arquiteturas em que dados sensíveis não saem da jurisdição brasileira.
Relatos de empresas colhidos por veículos de negócios e tecnologia convergem em um ponto: há insegurança em despejar dados confidenciais em modelos públicos. Não por acaso, uma reportagem da Fast Company mencionou que boa parte das companhias tem imposto restrições ao uso irrestrito de apps de IA generativa por funcionários, justamente por medo de vazamento e problemas de privacidade.
Modelos menores, setoriais e sob medida
Outro argumento em favor de um “LLM brasileiro” passa longe da tentativa de copiar o ChatGPT. A linha é quase a contrária: modelos menores, mais baratos, focados em um setor ou problema.
Materiais técnicos de empresas como Nvidia e de cursos especializados descrevem a lógica da destilação: usar um modelo gigante como “professor” para treinar um modelo enxuto, especializado em determinadas tarefas. Isso permite:
- Rodar o modelo em data center próprio ou até em infraestrutura modesta.
- Reduzir latência e custo operacional.
- Ganhar precisão em um domínio específico (crédito, sinistros, suporte técnico, gestão de estoque, atendimento de utilities etc.).
Textos de negócios e tecnologia destacam que modelos menores tendem a ser o caminho natural para empresas que querem IA generativa com dados sensíveis, mas não podem – ou não desejam – enviar tudo a um LLM público. O modelo “grandão” continua útil como base, mas a operação crítica roda em um “mini‑LLM” afinado com as regras do negócio local.
Verticais brasileiras onde isso faz especial sentido
No Brasil, essa combinação parece promissora em várias frentes:
Finanças, seguros e crédito
Modelos treinados para entender normas do Banco Central, resoluções do Conselho Monetário Nacional, regras de crédito consignado, padrões de seguros de automóvel e vida, e hábitos transacionais típicos do cliente brasileiro.
Varejo, bens de consumo e serviços
Agentes digitais que conhecem dúvidas típicas: parcelamento sem juros, PIX, boleto, troca em loja física, cashback, prazos de entrega em regiões remotas. Em grandes redes, o volume de interações é tão grande que qualquer ganho marginal de eficiência vira dinheiro.
Saúde e educação
Modelos que conciliem linguagem técnica com o jeito real de as pessoas falarem de sintomas, dúvidas sobre exames ou tarefas escolares. Em educação, plataformas como Geekie mencionam o uso de IA para reforço escolar; um LLM ajustado à realidade da rede pública pode entregar respostas mais próximas do universo de estudantes de diferentes regiões.
Governo e serviços críticos: transparência e política contam
Em funções como previdência, saúde pública, justiça e programas sociais, usar um modelo de caixa‑preta estrangeiro é combustível para debate político. Quem responde se o algoritmo erra um benefício ou espalha informação enviesada?
Ao planejar um LLM nacional, o MCTI fala em:
- Bases de dados públicas claramente identificadas.
- Treinamento respeitando direitos autorais, evitando uso de material pirata sem autorização.
- Governança estatal ou público‑privada sobre atualização, auditoria e correção.
Com boa parte dos brasileiros enxergando a IA como recurso educacional, um LLM em português pensado como infraestrutura pública poderia ser tratado como bem comum – uma espécie de “serviço essencial” para educação, SUS e acesso a serviços governamentais. Em vez de cada secretaria contratar sua solução de IA, o país ganharia um backbone nacional, com camadas de personalização por órgão.
O argumento contra: por que reinventar um ChatGPT em português costuma sair caro
A narrativa de soberania digital é sedutora. Mas não paga GPU, nem atrai sozinha um time de especialistas em machine learning.
Quando a matemática não fecha
Grandes modelos de linguagem são caros por natureza. Materiais técnicos de fabricantes de hardware lembram que estamos falando de algoritmos com centenas de bilhões de parâmetros, treinados em dados em escala de internet, consumindo quantidades relevantes de energia e exigindo hardware de ponta.
Treinar um modelo desses do zero demanda:
- Um volume gigantesco de dados de qualidade, limpos e bem rotulados.
- Infraestrutura de GPUs de alta performance, operando por meses.
- Uma equipe grande e qualificada para desenhar arquitetura, fazer curadoria de dados, testar, alinhar o modelo e operá‑lo continuamente.
Não à toa, o governo discute a compra de um supercomputador para viabilizar seu LLM. E, mesmo com a queda de cerca de 95% no custo de uso de LLMs desde 2022, como lembra a Bain, manter modelos próprios de grande porte continua caro para a maioria das empresas.
O resultado é previsível: para quase todo mundo, usar APIs de modelos existentes ou adaptar modelos open source sai muito mais barato e muito mais rápido do que embarcar em um projeto de “ChatGPT corporativo” totalmente próprio.
O risco de ficar velho em meses
OpenAI, Google, Anthropic, Meta e outros disputam um jogo com ciclos curtíssimos de inovação. O ChatGPT começou com GPT‑3.5, rapidamente ganhou o GPT‑4 e, depois, o GPT‑4o com multimodalidade avançada, voz natural e suporte integrado a imagens e vídeos.
Comparativos publicados por comunidades de dados e desenvolvedores mostram como esse ritmo de atualização amplia a vantagem competitiva desses modelos: melhor compreensão de contexto, capacidade de raciocínio mais sofisticada, suporte consistente a múltiplos idiomas, integrações com agentes e ecossistemas de plugins.
Um LLM brasileiro isolado corre dois riscos óbvios:
- Entregar desempenho visivelmente inferior em tarefas gerais, programação, multimídia e orquestração de agentes.
- Virar peso morto em pouco tempo se não houver orçamento – e talento – para evoluir o modelo em ciclos curtos.
Em empresas que investem em modelos internos, esse dilema já aparece. Mesmo depois de treinar um modelo próprio, muitas voltam a integrar modelos globais, pressionadas por áreas de negócio que querem recursos mais avançados ou por clientes que já se acostumaram ao padrão de qualidade dos gigantes.
Talentos, infraestrutura e o “detalhe” dos dados locais
A pesquisa da Bain mostra que quase 40% das empresas brasileiras apontam infraestrutura tecnológica e falta de talentos como os principais entraves à adoção de IA generativa. Traduzindo: ainda é difícil montar times experientes em machine learning, MLOps e engenharia de dados, enquanto escasseiam ambientes preparados para treinar e rodar modelos complexos.
Artigos sobre riscos de LLMs em organizações lembram que o desafio não é só pôr o modelo de pé. É também:
- Garantir qualidade e diversidade dos dados de treino.
- Ter processos de governança de dados maduros, alinhados à LGPD.
- Implementar monitoramento para evitar viés, alucinações graves e exposição de informação sensível.
No Brasil, a dor é ampliada por uma realidade conhecida: muito conteúdo relevante está pouco estruturado, é protegido por direitos autorais ou envolve dados pessoais sensíveis (saúde, finanças, educação). Usar esse material sem critério é convite a problema com ANPD, Ministério Público, Justiça do Trabalho e imprensa.
Fragmentação: cada um com seu “mini‑ChatGPT” desconectado
Se cada grande organização decidir ter seu próprio “LLM brasileiro”, o cenário provável é de fragmentação:
- Silos tecnológicos que não se conversam.
- Duplicação de esforço em tarefas básicas, como sumarização, tradução ou atendimento padrão.
- Arquiteturas complexas e caras para integrar dezenas de modelos, cada um com contrato, ciclo de atualização e time responsável.
Textos técnicos de empresas de infraestrutura defendem uma arquitetura mais pragmática: usar modelos de base globais, conectados via API ou hospedados em ambientes gerenciados, e construir em cima deles camadas de personalização – fine‑tuning, RAG, destilação – com dados próprios.
Nesse desenho, a empresa pode manter, por exemplo:
- Um LLM global para tarefas gerais e conhecimento de mundo.
- Modelos menores internos, distilados, para domínios sensíveis, rodando atrás de firewalls, sem exposição externa de dados.
O que torna a decisão diferente no Brasil
Além de técnica e orçamento, o contexto brasileiro adiciona variáveis que executivos nos EUA ou na Europa nem sempre precisam ponderar com a mesma intensidade.
Reguladores olhando por cima do ombro
O país opera sob um combo particular: LGPD, marco de IA em tramitação, regras setoriais de bancos, saúde, educação, telecom, seguros.
A LGPD, inspirada no GDPR, trabalha com conceito amplo de dado pessoal e se aplica a qualquer organização que trate dados de pessoas no Brasil. O texto reforça deveres de transparência, segurança e responsabilização do controlador.
O projeto de lei 2.338/23 cria categorias de IA e níveis de risco. Sistemas generativos de propósito geral, como GPT e Gemini, exigem avaliação prévia de risco. O texto também aborda proteção de direitos autorais, personalidade e transparência no uso de voz e imagem em aplicações de IA.
Setores sob lupa permanente
Para bancos, operadoras de saúde, redes educacionais e órgãos públicos, essa combinação é delicada. Usar plataformas globais com dados sensíveis pode ser facilmente enquadrado como situação de alto risco, o que tende a forçar:
- Medidas extras de governança e segurança.
- Auditorias, relatórios de impacto e processos internos mais robustos.
Modelos nacionais, hospedados em datacenters no país, com contratos ajustados à legislação local e trilhas de dados claras, não resolvem tudo, mas ajudam a reduzir essa exposição.
Mercado grande, com bolsões de altíssima sensibilidade
O Brasil lidera investimentos em IA na América Latina, respondendo por fatia relevante do mercado regional, com centenas de milhões de dólares movimentados em 2024, segundo dados citados por empresas de telecom e tecnologia com base em consultorias internacionais. Há projetos bilionários em discussão até o fim da década.
Ao mesmo tempo, a economia carrega particularidades:
- Altos níveis de informalidade.
- Complexidade tributária.
- Forte concentração de dados sensíveis em poucos grandes players (bancos, telcos, grandes redes de saúde, plataformas digitais).
Esse quadro justifica iniciativas de LLMs específicos para verticais críticas – consórcios em finanças, saúde, justiça, governo. Mas não sustenta, de forma racional, a ideia de dezenas de empresas médias tentando virar “a OpenAI brasileira”.
Língua, WhatsApp e desigualdade digital
O português brasileiro não é apenas mais um item em lista de idiomas suportados. É um mosaico de regionalismos, gírias, expressões híbridas e convivência intensa com áudio e texto informal em apps como WhatsApp.
Na educação, conteúdos de Brasil Escola e Geekie destacam como o ChatGPT vem sendo usado para redigir textos, explicar conceitos difíceis, sugerir atividades e tirar dúvidas. Ao mesmo tempo, especialistas alertam: ele não substitui o professor, porque não lida com aprendizagem socioemocional, mediação de conflitos ou leitura fina de contexto de sala de aula.
Um LLM que “entenda brasileiro”
Um LLM nacional realmente treinado com a linguagem de estudantes da rede pública, por exemplo, poderia:
- Entender melhor o vocabulário cotidiano, inclusive regional.
- Produzir explicações mais próximas do universo cultural dos alunos.
- Apoiar políticas de reforço escolar adaptadas à realidade local.
O raciocínio vale para grandes operações de atendimento ao consumidor em varejo popular, utilities, transporte, serviços municipais. Quem atende milhões de pessoas por texto e áudio lida diariamente com sotaques, abreviações, erros de digitação, áudios mal gravados e descrições muito informais de problemas. Esses detalhes nem sempre aparecem com a mesma frequência em datasets globais.
Há, portanto, espaço real para modelos que “entendam brasileiro” de forma mais natural – desde que isso seja encarado como projeto de longo prazo, não como slogan de campanha.
Veredicto prático: quando faz sentido apostar em um LLM brasileiro – e quando não
No fim, a pergunta que interessa ao C‑level não é filosófica. É brutalmente pragmática: investir em LLM nacional melhora o P&L ou é só corrida por troféu?
Três perguntas incômodas que ajudam na resposta
1. Você lida com dados altamente sensíveis e regulados em grande escala?
Se a resposta é sim – bancos, saúde, governo, grandes telcos, seguradoras, grandes redes de educação –, faz sentido considerar:
- LLMs nacionais ou hospedados no Brasil, com contratos e SLAs desenhados para LGPD e marco de IA.
- Modelos menores proprietários, muitas vezes distilados de modelos grandes, para rodar dentro do próprio perímetro de segurança.
Nesses ambientes, diminuir a superfície de risco jurídico e reputacional é, literalmente, dinheiro.
2. Seu diferencial competitivo depende de conhecimento profundamente local?
Se o negócio gira em torno de:
- Direito brasileiro, contabilidade nacional, tributação local.
- Educação pública, políticas públicas, programas sociais.
- Operação rural, assistência técnica, atendimento massivo em português regional.
Investir em fine‑tuning forte, destilação ou até em um LLM especializado pode gerar vantagem clara. A Clarice.ai é um exemplo: ao se posicionar em escrita e revisão em português brasileiro com nuances finas, ocupou um espaço em que modelos genéricos tropeçam com mais frequência.
3. Você tem orçamento e fôlego para acompanhar o estado da arte global?
Se a resposta é não – o que provavelmente vale para a esmagadora maioria das empresas –, a escolha racional tende a ser:
- Usar modelos internacionais de ponta (via API ou instâncias gerenciadas).
- Colocar energia em dados próprios, governança, integração e segurança.
- Explorar modelos open source onde fizer sentido, sem abraçar a ambição de um LLM gigante próprio.
Um executivo de dados de uma grande empresa resumiu bem esse dilema, em conversa informal: “Nosso negócio é vender energia, não competir com a OpenAI”.
O caminho que faz sentido para a maioria das empresas brasileiras
Para quase todas as organizações, a estratégia mais eficiente hoje é híbrida e pragmática.
Modelos globais como base
Usar GPT, Gemini, Claude ou equivalentes open source como “motor padrão”, aproveitando o custo por chamada em queda e os recursos multimodais – texto, imagem, áudio, vídeo – que esses serviços já oferecem.
Camada local de proteção
Implementar anonimização de dados, mascaramento de informações sensíveis, orquestração que evita envio desnecessário de PII e políticas alinhadas à LGPD. Em muitos casos, isso é mais determinante para o risco real do que a nacionalidade do modelo.
Personalização por cima, não por baixo
Em vez de treinar tudo do zero, usar técnicas de RAG (busca em bases internas) e fine‑tuning leve com dados brasileiros do próprio negócio. Isso permite ganhar contexto local sem herdar, de cara, a conta completa de treinar um modelo gigantesco.
Monitoramento contínuo e governança
Criar métricas claras de qualidade, trilhas de auditoria para decisões automatizadas e processos de avaliação de risco que conversem com a lógica de avaliação prévia do projeto de marco de IA.
A ambição de um “modelão nacional” – algo na escala de um GPT‑4o – faz sentido em poucas situações:
- Governo federal e consórcios público‑privados voltados a serviços essenciais e soberania de dados.
- Grandes conglomerados financeiros, de telecom ou de infraestrutura, com escala continental e apetite real para virar referência regional.
- Startups com tese muito clara e foco estreito, como a Clarice.ai na escrita em português brasileiro, mirando lacunas específicas de modelos globais.
Fechamento editorial: o jogo real não é só ter o modelo, é saber orquestrar
Um LLM brasileiro não é um fim em si. É infraestrutura. Troféu para mostrar em apresentação de fim de ano, sozinho, não paga conta.
Para o país, faz sentido ter ao menos um grande modelo em português sob guarda pública ou público‑privada, treinado com bases oficiais e alinhado a direitos autorais, LGPD e marco de IA. Ele pode ser peça importante de soberania digital e modernização de educação, SUS e serviços públicos.
Para a maioria das empresas, porém, a vantagem competitiva virá menos de “possuir um modelo” e mais de saber orquestrar modelos globais e locais. Em linguagem simples: combinar, com inteligência, o que já existe de classe mundial com o que precisa ser profundamente brasileiro.
Quem acertar essa orquestração tende a capturar o melhor dos dois mundos: a escala e a velocidade dos modelos globais, com a precisão, a segurança e as nuances de soluções enraizadas na realidade do Brasil.
Fontes
Chat GPT na escola: vantagens, desvantagens e como usar
7 vantagens e desvantagens do ChatGPT no marketing
ChatGPT: pontos positivos e negativos