Carlos Schmiedel (*)
É consenso que a inteligência artificial tornou-se parte do cotidiano das empresas e dos profissionais brasileiros. Segundo a pesquisa “Confiança, Atitudes e Uso de Inteligência Artificial” conduzida pela KPMG e pela Universidade de Melbourne, 86% dos trabalhadores brasileiros afirmam usar ferramentas de automação em suas rotinas. Destes, 71% notaram ganhos de eficiência e qualidade em suas atividades.
Mas o dado mais revelador vem de outro levantamento, feito pela YouGov a pedido da Zendesk: sete em cada 10 brasileiros dizem confiar na IA para gerenciar suas finanças pessoais. Para vias de comparação, em países como Alemanha e Reino Unido, essa confiança cai para uma a cada dez pessoas. Em outras palavras, o Brasil desponta como um dos países que mais abraçaram a tecnologia e talvez também um dos que menos questionam seus limites.
Desde o lançamento do ChatGPT, em 2022, empresas de todos os setores vêm explorando as possibilidades dos Large Language Models (LLMs). Contudo, junto com essas oportunidades surgiu um desafio crítico: as chamadas “alucinações da IA”. Em suma, são situações em que os algoritmos geram informações convincentes, mas potencialmente incorretas ou completamente fabricadas.
Assim como o cérebro humano preenche lacunas de memória com informações possíveis, mas incorretas, os modelos de inteligência artificial utilizam mecanismos preditivos para gerar respostas quando enfrentam incertezas. A diferença é que nós, humanos, temos a visão crítica para diferenciar o certo do errado. Já o ChatGPT, por exemplo, muitas vezes falha e persiste no erro. O problema é que a confiança nesta fabricação muitas vezes pode nos enganar.
As alucinações também podem representar um problema ético e operacional. Elas permitem que sistemas de IA produzam textos com aparência de veracidade, mas sem base factual. Em ambientes corporativos, podem comprometer decisões, reputações e até a privacidade de dados. No setor de saúde, por exemplo, o impacto é especialmente grave: já houve casos de diagnósticos fictícios gerados por sistemas automatizados de análise médica.
Por outro lado, nem toda “alucinação” é um erro a ser eliminado. Em contextos criativos como publicidade, storytelling ou design a capacidade da IA de produzir conexões improváveis pode estimular a inovação.
Confiar na IA é inevitável. Confiar cegamente, não! O verdadeiro avanço tecnológico depende de uma relação madura entre humanos e máquinas.
(*) Carlos Schmiedel é co-fundador e CEO da Draiven. Também é mestre em ciência da informação pela Universidade Federal de São Carlos (UFSCar), professor convidado do MBA em Informação, Tecnologia e Inovação da UFSCar, Conselheiro da Rede Digitalize, avaliador de projetos de inovação da Fundação de Amparo à Ciência e Tecnologia do Estado de Pernambuco (FACEPE) e fundador da Predify, primeira startup de IA explicável de precificação do Brasil.







