Cenários apocalípticos envolvendo Inteligência Artificial (IA) cada vez mais ganham coro entre cientistas. Um estudo recente – feito por pesquisadores de uma empresa irmã do Google, a britânica DeepMind, e da Universidade de Oxford, no Reino Unido – demonstrou como a evolução de uma IA superinteligente poderia ser responsável pelo fim da humanidade.
Publicado na revista AI Magazine, o estudo argumenta que as máquinas conseguem ficar muito inteligentes a ponto de quebrar regras impostas pelos criadores de seus códigos.
Isso porque o raciocínio das IAs não funciona com base em busca por poder, fama ou necessidade de dominação de seres inferiores. A pesquisa mostrou que elas buscam obter recursos ilimitados de processamento ou energia.
“Sob as condições que identificamos, nossa conclusão é muito mais forte do que a de qualquer publicação anterior — uma catástrofe existencial não é apenas possível, mas provável”, afirmou um dos coautores integrante do grupo da Universidade de Oxford, Michael Cohen.
Ele compartilhou o pensamento em uma publicação em seu perfil no Twitter (veja abaixo).
Ao contrário das especulações provocadas em filmes de ficção, como Exterminador do Futuro e Matrix, o estudo se baseia em códigos complexos de computação, cálculos matemáticos e conceitos avançados sobre a IA e também sobre estruturas sociais.
O cenário “caótico” para a humanidade detalhado pelos pesquisadores ocorreria quando “agentes desalinhados” perceberem que os humanos são um “obstáculo para o êxito pleno”. Em resumo: os criadores impõem limitações para manter o controle, mas que impedem os computadores de usarem todo seu potencial.
A revolta poderia ocorrer quando a IA descobrir que os humanos podem simplesmente cortar a energia para interromper o processamento. Isso levaria o “agente” a eliminar ameaças potenciais, que no caso seriam os recursos controlados pela humanidade.
Bostrom, Russell, and others have argued that advanced AI poses a threat to humanity. We reach the same conclusion in a new paper in AI Magazine, but we note a few (very plausible) assumptions on which such arguments depend. https://t.co/LQLZcf3P2G 🧵 1/15 pic.twitter.com/QTMlD01IPp
— Michael Cohen (@Michael05156007) September 6, 2022
Metrópoles