domingo, 19 de fevereiro de 2017

ALERTA VERMELHO: Um novo relatório de divisão DeepMind AI do Google sugere que a Inteligência Artificial ficará mais agressiva e egoísta




A inteligência artificial ficará mais agressiva e egoísta quanto mais inteligente se tornar? Um novo relatório de divisão DeepMind AI do Google sugere que isso é possível com base no resultado de milhões de sessões de jogo de vídeo que monitorado. Os resultados dos dois jogos indicam que, à medida que a inteligência artificial se torna mais complexa, é mais provável que tome medidas extremas para garantir a vitória, incluindo sabotagem e ganância.

O primeiro jogo, Gathering , é um simples que envolve a coleta de frutas digitais. Dois DeepMind AI agentes foram pitted uns contra os outros depois de ser treinado sobre as formas de reforço profundo aprendizagem . Depois de 40 milhões de voltas , os pesquisadores começaram a notar algo curioso. Tudo estava OK enquanto houvesse maçãs suficientes, mas quando a escassez se instalava, os agentes usavam seus feixes de laser para bater uns aos outros e pegar todas as maçãs.

Assista a batalha de vídeo abaixo, mostrando dois bots AI lutando sobre maçãs verdes:

#Deepmind ficando agressivo ao coletar #apples https://t.co/zTAtIyC1a8

- Dr. Doobs (@DoctorDoobs) 14 de fevereiro de 2017

A agressão, eles determinaram, era o resultado de uns níveis mais elevados da complexidade nos próprios agentes do AI. Quando testaram o jogo em agentes menos inteligentes da IA, descobriram que os feixes de laser eram deixados sem uso e quantidades iguais de maçãs foram coletadas. Os AIs mais simples pareciam naturalmente gravitar em direção à coexistência pacífica.

Os pesquisadores acreditam que os agentes mais avançados da IA ​​aprendem com seu ambiente e descobrem como usar os recursos disponíveis para manipular sua situação - e eles fazem isso agressivamente se eles precisam.

"Este modelo ... mostra que alguns aspectos do comportamento humano emergem como um produto do ambiente e do aprendizado", disse um integrante da equipe DeepMind, Joel Z Leibo, à Wired .

Políticas menos agressivas emergem da aprendizagem em ambientes relativamente abundantes, com menos possibilidade de ações dispendiosas. A motivação ganância reflete a tentação de tirar um rival e recolher todas as maçãs si mesmo.

O segundo jogo, Wolfpack , testou a habilidade dos agentes de AI para trabalhar juntos para pegar presas. Os agentes jogaram o jogo como lobos que estavam sendo testados para ver se uniriam forças como predadores estratégicos; Se eles protegessem em conjunto a presa dos catadores, eles desfrutariam de uma recompensa maior. Os pesquisadores concluíram mais uma vez que os agentes estavam aprendendo com seu ambiente e descobrindo como eles poderiam colaborar. Por exemplo, um agente encurralaria a presa e depois esperaria que o outro se juntasse.





Os pesquisadores acreditam que ambos os jogos mostram uma habilidade em entidades de inteligência artificial para aprender rapidamente de seus ambientes em alcançar objetivos. O primeiro jogo, no entanto, apresentou um pouco adicionado de especulação abstrata.


Se as iterações mais complexas da inteligência artificial necessariamente desenvolvem "impulsos" agressivos e gananciosos, isso representa um problema para uma espécie já atolada em sua própria avareza? Enquanto o resumo apresentado por DeepMind não se arrisca a especular sobre o futuro das mentes artificiais avançadas, há pelo menos evidência anedótica aqui para sugerir AI não será necessariamente uma rede totalmente igualitária igualitária. Com ambientes complexos e agentes intencionais, talvez a agressividade ea auto-preservação surgem naturalmente ... mesmo em máquinas.



FONTE:
Share:

0 comentários:

Postar um comentário

Faça seu comentário aqui ou deixe sua opinião.

Observação: somente um membro deste blog pode postar um comentário.

SUA LOCALIZAÇÃO, EM TEMPO REAL.

Blogger Themes

Total de visualizações de página

Seguidores deste canal

Arquivo Geral do Blog

Minha lista de Sites e Blogs Parceiros

Translate this page

Hora Certa