domingo, 10/11/2024
InícioGeralQual a chance da IA se revoltar contra os humanos? Ciência responde

Qual a chance da IA se revoltar contra os humanos? Ciência responde

As histórias de máquinas se rebelando contra seus criadores já se tornaram parte da nossa cultura popular. Filmes, livros e videogames abordam esse medo de forma recorrente. Mas será que a inteligência artificial pode realmente tomar consciência e sair do nosso controle?
Pesquisadores da Universidade Técnica de Darmstadt, na Alemanha, e da Universidade de Bath, no Reino Unido, foram à procura de uma resposta e observaram se modelos de linguagem grandes (LLMs – sigla em inglês) podem desenvolver habilidades para além de seu código. O resultado mostra que não precisamos ter medo por enquanto.

A IA pode se desenvolver de forma independente?

  • Com o aumento do tamanho dos atuais modelos de linguagem, há o temor de que eles possam desenvolver habilidades perigosas, como raciocínio e planejamento.
  • Nos testes, os pesquisadores analisaram quatro modelos de LLMs que desenvolveram tarefas emergentes, ou seja, para as quais não foram explicitamente treinados.
  • Eles não encontraram evidências de desenvolvimento de pensamento independente ou qualquer tipo de comportamento fora da programação.
  • Todas as habilidades exibidas pelos modelos foram explicadas pela capacidade de seguir instruções, memorização e proficiência linguística, sem qualquer desvio.
  • Em resumo, o resultado mostra que o medo de que um modelo de IA desenvolva comportamentos inesperados e consciência não é justificado.
  • O perigo real está nos humanos

    Nos últimos anos, os modelos de linguagem (LLMs) evoluíram para se tornarem muito mais sofisticados, sendo capazes de manter conversas coerentes e naturais via texto. Apesar disso, esses modelos não são perfeitos, pois não possuem inteligência real, o que os impede de distinguir informações boas e ruins em muitos casos.

  • O perigo mesmo está em quem e como utiliza essas ferramentas. Ao contrário da IA, as pessoas são menos previsíveis, e seu uso desenfreado da tecnologia já levanta questões como direitos autorais, confiança, poluição digital e outros. Segundo pesquisadores, essas ameaças devem ser o foco de futuras investigações científicas.

    Nossos resultados não significam que a IA não seja uma ameaça. Em vez disso, mostram que o suposto surgimento de habilidades de pensamento complexas associadas a ameaças específicas não é apoiado por evidências e que podemos controlar muito bem o processo de aprendizagem de LLMs, afinal.

    Iryna Gurevych, autora da pesquisa, em artigo da Universidade Técnica de Darmstadt

    A pesquisa foi divulgada nos anais da 62ª Reunião Anual da Associação de Linguística Computacional.

  • Fonte: Olhar Digital
Clique AQUI, entre na comunidade de WhatsApp do Altnotícias e receba notícias em tempo real. Siga-nos nas nossas redes sociais!
Parmenas Alt
Parmenas Alt
A estrada é longa e o tempo é curto. Não deixe de fazer nada que queira, mas tenha responsabilidade e maturidade para arcar com as consequências destas ações.
RELATED ARTICLES

DEIXE SEU COMENTÁRIO

Please enter your comment!
Digite seu nome aqui

- Publicidade -

Mais Visitadas

Comentários Recentes