Sistema aprende a jogar videogames em nível comparável ao de um craque.
Estudo foi publicado nesta semana na revista 'Nature'.
Cientistas britânicos desenvolveram uma rede neural artificial (RNA)
capaz de aprender a jogar diversos videogames em nível comparável ao de
um craque sem ter sido previamente programada para isso, segundo estudo
da revista "Nature".A DeepMind Technologies, empresa adquirida pelo Google em janeiro de 2014, combinou técnicas de aprendizagem computacionais já conhecidas com mecanismos inspirados na biologia para conseguir que seu "agente artificial" aprendesse a jogar 49 jogos clássicos do videogame Atari 2600.
O sistema é capaz de descobrir o objetivo do jogo e dominar seus controles, sem contar com nenhuma outra informação além das que aparecem na tela e a pontuação da partida. Graças aos mecanismos de adaptação e aprendizagem, a máquina atua em um nível comparável ao de um expert em videogames.
Os criadores do sistema destacaram que a aplicação da inteligência artificial aos videogames é apenas uma demonstração da potência de seu algoritmo, que pode ser designado para outro tipo de uso ou função.
"Artefato de natureza distinta"
Demis Hassabis, um dos desenvolvedores, explicou em entrevista coletiva por telefone que sua rede neural é um artefato de natureza distinta de outras máquinas, como o conhecido Deep Blue - computador que em 1996 derrotou pela primeira vez um campeão mundial de xadrez, o russo Gary Kasparov.
"A diferença é que as habilidades do Deep Blue estavam programadas de antemão. Uma equipe de engenheiros e professores de xadrez aplicou todo seu conhecimento em um algoritmo que era executado com sucesso, mas sem precisar aprender nada", disse.
"Nosso sistema, por outro lado, começa do zero, sem nenhuma informação. Contando somente com a experiência perceptiva. Ele precisa aprender apenas quais padrões deve seguir. A ideia é que possa se adaptar a situações inesperadas", acrescentou.
Sistema mais humano
O pesquisador disse que os sistemas de redes neurais artificiais são "mais humanos" que outros tipos de programas de inteligência artificial, porque assimilam o mundo que os rodeia e encontram um modelo que os permite tomar decisões.
No caso dos videogames, o sistema aprende que determinadas ações são mais recomendáveis, de acordo com a pontuação que alcança em cada partida.
Com essa estratégia, é capaz de se sobressair em jogos de todos os tipos: de plataformas, disparos, boxe ou corridas, o que demonstra que 'uma única arquitetura pode desenvolver ótimas táticas para uma ampla variedade de situações', afirmou Hassabis.
"O sistema pode ser usado para qualquer tarefa que envolva tomadas de decisões sequenciais. Não programamos nada específico para jogar videogames de Atari. É um programa de aprendizagem geral", disse Koray Kavukcuoglu, funcionário da DeepMind.
A empresa é propriedade do Google desde o ano passado, que a adquiriu por cerca de R$ 1,5 bilhão em um leilão, do qual também participaram outras grandes companhias do setor tecnológico, como o Facebook.
Fonte: http://g1.globo.com/ciencia-e-saude/noticia/2015/02/pesquisa-desenvolve-rede-neural-artificial-capaz-de-aprender-sozinha.html
Nenhum comentário:
Postar um comentário