https://frosthead.com

AI está aprendendo o trabalho em equipe, dominando em videogames multiplayer

Os computadores dominam os humanos em jogos individuais como o xadrez há décadas, mas obter inteligência artificial (IA) para cooperar com colegas de equipe é um pouco mais complicado. Agora, pesquisadores do projeto DeepMind do Google ensinaram os jogadores de IA a trabalharem juntos em equipes com humanos e outros computadores para competir no videogame Quake III Arena de 1999.

Edd Gent, da Science, relata que, quando a IA tem apenas um oponente, geralmente faz muito bem, já que antecipa apenas os possíveis movimentos de uma única mente. Mas o trabalho em equipe é um assunto completamente diferente, pois inclui ações que os computadores não são tradicionalmente bons, como prever como um grupo de colegas de equipe se comportará. Para tornar a IA verdadeiramente útil, ela precisa aprender a cooperar com outras inteligências.

A equipe do DeepMind do Google explica em um post no blog:

“Bilhões de pessoas habitam o planeta, cada um com seus próprios objetivos e ações individuais, mas ainda capazes de se unirem através de equipes, organizações e sociedades em demonstrações impressionantes de inteligência coletiva. Esse é um cenário que chamamos de aprendizado multiagente: muitos agentes individuais devem agir de forma independente, mas aprender a interagir e cooperar com outros agentes. Esse é um problema imensamente difícil - porque, com os agentes de co-adaptação, o mundo está mudando constantemente ”.

Multiplayer, jogos de vídeo em primeira pessoa, em que equipas de jogadores correm mundos virtuais, geralmente disparando armas ou lançadores de granadas em um outro, é o local perfeito para AI para aprender os meandros do trabalho em equipe. Cada jogador deve agir individualmente e fazer escolhas que beneficiem a equipe como um todo.

Para o estudo, a equipe treinou a IA para capturar a bandeira na plataforma Quake III Arena . As regras são bem simples: duas equipes se enfrentam em um campo de batalha parecido com um labirinto. O objetivo é capturar o maior número possível de bandeiras virtuais das outras equipes, protegendo as suas próprias, e qualquer que seja a equipe que capturar mais bandeiras em cinco minutos ganha. Na prática, no entanto, as coisas podem ficar muito complicadas rapidamente.

A equipe do DeepMind criou 30 algoritmos de redes neurais e os fez lutar uns contra os outros em uma série de mapas de jogos gerados aleatoriamente. Os bots marcaram pontos capturando bandeiras e atacando outros jogadores, enviando-os de volta a uma área de respawn onde seu personagem é reiniciado. No início, as ações dos bots pareciam aleatórias. No entanto, quanto mais eles jogavam, melhor eles se tornavam. Quaisquer redes neurais que consistentemente perdidos foram eliminados e foram substituídos por versões modificadas de ganhar AI No final de 450.000 jogos, a equipe coroado uma rede neural-apelidado pela vitória (FTW) -como o campeão.

O grupo DeepMind jogou o algoritmo FTW contra o que é chamado de bots de espelho, que estão faltando habilidades de aprendizagem de IA, e depois contra equipes humanas também. FTW esmagou todos os adversários.

O grupo realizou um torneio no qual 40 jogadores humanos foram escolhidos aleatoriamente como companheiros de equipe e oponentes do bot. De acordo com a postagem no blog, os jogadores humanos descobriram que os bots eram mais colaborativos do que seus companheiros na vida real. Jogadores humanos emparelhados com agentes do FTW conseguiram derrotar os guerreiros cibernéticos em cerca de 5% dos jogos.

Enquanto sabiam, os bots descobriram algumas estratégias há muito adotadas por jogadores humanos, como ficar perto do ponto de respawn de uma bandeira para agarrá-lo quando ele reaparecer. As equipes do FTW também encontraram um bug que poderiam ser exploradas: se eles atirassem em seu próprio companheiro nas costas, isso lhes dava um aumento de velocidade, algo que eles usavam em sua vantagem.

"O que foi incrível durante o desenvolvimento deste projeto foi ver o surgimento de alguns desses comportamentos de alto nível", diz Max Jaderberg, pesquisador do DeepMind e principal autor do livro. "Essas são coisas com as quais podemos nos relacionar como jogadores humanos".

Uma das principais razões pelas quais os bots eram melhores que os humanos era que eles eram atiradores rápidos e precisos, tornando-os mais rápidos no empate do que seus oponentes humanos. Mas esse não foi o único fator em seu sucesso. De acordo com o blog, quando os pesquisadores criaram um quarto de atraso no tempo de reação dos atiradores de robôs, os melhores seres humanos ainda poderiam vencê-los 21% do tempo.

Uma vez que este estudo inicial, FTW e seus descendentes têm sido desencadeada na plena Quake III Arena campo de batalha, e têm mostrado que eles podem dominar um mundo ainda mais complexo, com mais opções e nuance. Eles também criaram um bot que se destaca no jogo espacial ultra-complexo Starcraft II.

Mas a pesquisa não é apenas sobre como fazer melhores algoritmos de videogame. Aprender sobre trabalho em equipe poderia eventualmente ajudar a AI trabalho em frotas de carros que dirigem ou assistentes robóticos talvez um dia tornar-se que ajudam a antecipar as necessidades dos cirurgiões, Gent Ciência ‘s relatórios.

Nem todo mundo, no entanto, acha que os robôs arcade-star representam um verdadeiro trabalho em equipe. O pesquisador da IA, Mark Riedl, da Georgia Tech, disse ao New York Times que os bots são tão bons no jogo, porque cada um deles entende as estratégias em profundidade. Mas isso não é necessariamente cooperação, já que as equipes de IA não possuem um elemento crucial do trabalho em equipe humano: comunicação e cooperação intencional.

E, claro, eles também não têm a outra característica da experiência cooperativa de videogame: o lixo falando com o outro time.

AI está aprendendo o trabalho em equipe, dominando em videogames multiplayer