A IA pode se desenvolver de forma independente?
- Com o aumento do tamanho dos atuais modelos de linguagem, há o temor de que eles possam desenvolver habilidades perigosas, como raciocínio e planejamento.
- Nos testes, os pesquisadores analisaram quatro modelos de LLMs que desenvolveram tarefas emergentes, ou seja, para as quais não foram explicitamente treinados.
- Eles não encontraram evidências de desenvolvimento de pensamento independente ou qualquer tipo de comportamento fora da programação.
- Todas as habilidades exibidas pelos modelos foram explicadas pela capacidade de seguir instruções, memorização e proficiência linguística, sem qualquer desvio.
- Em resumo, o resultado mostra que o medo de que um modelo de IA desenvolva comportamentos inesperados e consciência não é justificado.
-
O perigo real está nos humanos
Nos últimos anos, os modelos de linguagem (LLMs) evoluíram para se tornarem muito mais sofisticados, sendo capazes de manter conversas coerentes e naturais via texto. Apesar disso, esses modelos não são perfeitos, pois não possuem inteligência real, o que os impede de distinguir informações boas e ruins em muitos casos.
- O perigo mesmo está em quem e como utiliza essas ferramentas. Ao contrário da IA, as pessoas são menos previsíveis, e seu uso desenfreado da tecnologia já levanta questões como direitos autorais, confiança, poluição digital e outros. Segundo pesquisadores, essas ameaças devem ser o foco de futuras investigações científicas.
Nossos resultados não significam que a IA não seja uma ameaça. Em vez disso, mostram que o suposto surgimento de habilidades de pensamento complexas associadas a ameaças específicas não é apoiado por evidências e que podemos controlar muito bem o processo de aprendizagem de LLMs, afinal.
Iryna Gurevych, autora da pesquisa, em artigo da Universidade Técnica de Darmstadt
A pesquisa foi divulgada nos anais da 62ª Reunião Anual da Associação de Linguística Computacional.
- Fonte: Olhar Digital