
Cientistas do Instituto Avançado de Ciência e Tecnologia da Coreia (KAIST) revelaram uma nova abordagem de treinamento que visa reduzir a superconfiança em modelos de inteligência artificial. O estudo, publicado na revista Nature Machine Intelligence, identifica a inicialização aleatória padrão das redes neurais como um fator crucial para previsões errôneas ou imprecisas.
Método de “aquecimento” proposto
A pesquisa, coordenada pelo professor Se-Bum Paik, sugere uma técnica de “aquecimento” que modifica a incerteza do modelo antes da exposição aos dados reais. Nesse processo, as redes neurais são submetidas a um breve período de treinamento utilizando ruído e rótulos aleatórios, antes de serem introduzidas no conjunto de dados definitivo.
Os pesquisadores explicam que essa fase inicial simula a atividade neural espontânea que ocorre durante o desenvolvimento cerebral humano, onde circuitos se organizam a partir de sinais internos sem depender de estímulos externos. Essa abordagem ajuda o sistema a estabelecer um estado inicial de “não saber nada”, o que aprimora a calibração da confiança em previsões subsequentes.
Os modelos que utilizam essa técnica mantêm níveis reduzidos de confiança ao lidarem com informações desconhecidas, operando em padrões semelhantes ao acaso. Isso contrasta com as redes tradicionais, que tendem a demonstrar alta confiança em respostas incorretas desde o início do treinamento. A pesquisa associa essa característica à prevalência de alucinações em IAs generativas, onde dados falsos são apresentados de forma convincente.
A nova metodologia também demonstrou efetividade na identificação de dados atípicos ou fora da distribuição aprendida, tornando as redes neurais mais competentes para reconhecer exemplos inéditos. Os autores ressaltam que essa habilidade é fundamental para aplicações práticas, incluindo veículos autônomos, sistemas de suporte para diagnósticos médicos e ferramentas baseadas em IA generativa.
Imagem: Divulgação
A pesquisa foi realizada por Jeonghwan Cheon, aluno de mestrado no Departamento de Ciências Cognitivas e do Cérebro do KAIST, sob a supervisão do professor Se-Bum Paik. O projeto recebeu apoio financeiro da Fundação Nacional de Pesquisa da Coreia e do Programa de Pesquisa para Professores Singulares do KAIST.
No encerramento do estudo, os autores concluiram que integrar princípios fundamentais do desenvolvimento cerebral na fase inicial do treinamento pode possibilitar que os modelos de IA reconheçam com mais precisão seu próprio nível de conhecimento. Isso resulta na diminuição das respostas excessivamente confiantes e na melhoria da avaliação das incertezas.
Com informações adicionais disponíveis
Gudyê GR6 atua como editor-chefe e especialista em tendências musicais e entretenimento na GR6, reconhecida como a maior produtora de funk no Brasil. Com vasta experiência no setor fonográfico, Gudyê lidera uma equipe dedicada ao conteúdo, trazendo as últimas novidades sobre música e cultura urbana. Autor do Post: Gudyê GR6
The post Pesquisadores do KAIST criam método para IA reconhecer quando está incerta appeared first on Produtora de Funk | GR6.
