ALERTA VERMELHO: Um novo relatório de divisão DeepMind AI do Google sugere que a Inteligência Artificial ficará mais agressiva e egoísta - ILLUMINATI - A ELITE PERVERSA

domingo, 19 de fevereiro de 2017

ALERTA VERMELHO: Um novo relatório de divisão DeepMind AI do Google sugere que a Inteligência Artificial ficará mais agressiva e egoísta




A inteligência artificial ficará mais agressiva e egoísta quanto mais inteligente se tornar? Um novo relatório de divisão DeepMind AI do Google sugere que isso é possível com base no resultado de milhões de sessões de jogo de vídeo que monitorado. Os resultados dos dois jogos indicam que, à medida que a inteligência artificial se torna mais complexa, é mais provável que tome medidas extremas para garantir a vitória, incluindo sabotagem e ganância.

O primeiro jogo, Gathering , é um simples que envolve a coleta de frutas digitais. Dois DeepMind AI agentes foram pitted uns contra os outros depois de ser treinado sobre as formas de reforço profundo aprendizagem . Depois de 40 milhões de voltas , os pesquisadores começaram a notar algo curioso. Tudo estava OK enquanto houvesse maçãs suficientes, mas quando a escassez se instalava, os agentes usavam seus feixes de laser para bater uns aos outros e pegar todas as maçãs.

Assista a batalha de vídeo abaixo, mostrando dois bots AI lutando sobre maçãs verdes:

#Deepmind ficando agressivo ao coletar #apples https://t.co/zTAtIyC1a8

- Dr. Doobs (@DoctorDoobs) 14 de fevereiro de 2017

A agressão, eles determinaram, era o resultado de uns níveis mais elevados da complexidade nos próprios agentes do AI. Quando testaram o jogo em agentes menos inteligentes da IA, descobriram que os feixes de laser eram deixados sem uso e quantidades iguais de maçãs foram coletadas. Os AIs mais simples pareciam naturalmente gravitar em direção à coexistência pacífica.

Os pesquisadores acreditam que os agentes mais avançados da IA ​​aprendem com seu ambiente e descobrem como usar os recursos disponíveis para manipular sua situação - e eles fazem isso agressivamente se eles precisam.

"Este modelo ... mostra que alguns aspectos do comportamento humano emergem como um produto do ambiente e do aprendizado", disse um integrante da equipe DeepMind, Joel Z Leibo, à Wired .

Políticas menos agressivas emergem da aprendizagem em ambientes relativamente abundantes, com menos possibilidade de ações dispendiosas. A motivação ganância reflete a tentação de tirar um rival e recolher todas as maçãs si mesmo.

O segundo jogo, Wolfpack , testou a habilidade dos agentes de AI para trabalhar juntos para pegar presas. Os agentes jogaram o jogo como lobos que estavam sendo testados para ver se uniriam forças como predadores estratégicos; Se eles protegessem em conjunto a presa dos catadores, eles desfrutariam de uma recompensa maior. Os pesquisadores concluíram mais uma vez que os agentes estavam aprendendo com seu ambiente e descobrindo como eles poderiam colaborar. Por exemplo, um agente encurralaria a presa e depois esperaria que o outro se juntasse.





Os pesquisadores acreditam que ambos os jogos mostram uma habilidade em entidades de inteligência artificial para aprender rapidamente de seus ambientes em alcançar objetivos. O primeiro jogo, no entanto, apresentou um pouco adicionado de especulação abstrata.


Se as iterações mais complexas da inteligência artificial necessariamente desenvolvem "impulsos" agressivos e gananciosos, isso representa um problema para uma espécie já atolada em sua própria avareza? Enquanto o resumo apresentado por DeepMind não se arrisca a especular sobre o futuro das mentes artificiais avançadas, há pelo menos evidência anedótica aqui para sugerir AI não será necessariamente uma rede totalmente igualitária igualitária. Com ambientes complexos e agentes intencionais, talvez a agressividade ea auto-preservação surgem naturalmente ... mesmo em máquinas.



FONTE:

Nenhum comentário:

Postar um comentário

Postagem mais recente Postagem mais antiga Página inicial