Somos fascinados por máquinas que podem controlar carros, compor sinfonias ou derrotar pessoas no xadrez, Go ou Jeopardy! Enquanto mais progresso está sendo feito o tempo todo na Inteligência Artificial (IA), alguns cientistas e filósofos alertam sobre os perigos de uma IA superinteligente incontrolável.
Usando cálculos teóricos, uma equipe internacional de pesquisadores, incluindo cientistas do Center for Humans and Machines do Instituto Max Planck para o Desenvolvimento Humano, mostra que não seria possível controlar uma IA superinteligente.
Suponha que alguém programe um sistema de IA com inteligência superior à dos humanos, para que possa aprender de forma independente. Conectada à Internet, a IA pode ter acesso a todos os dados da humanidade. Ela poderia substituir todos os programas existentes e assumir o controle de todas as máquinas online em todo o mundo. Isso produziria uma utopia ou distopia? A IA curaria o câncer, traria a paz mundial e evitaria um desastre climático? Ou iria destruir a humanidade e assumir o controle da Terra?
Cientistas da computação e filósofos se perguntaram se seríamos mesmo capazes de controlar uma IA superinteligente, para garantir que não representasse uma ameaça para a humanidade. Uma equipe internacional de cientistas da computação usou cálculos teóricos para mostrar que seria fundamentalmente impossível controlar uma IA superinteligente
O coautor do estudo, Manuel Cebrian, Líder do Grupo de Mobilização Digital no Centro para Humanos e Máquinas do Instituto Max Planck para o Desenvolvimento Humano disse:
“Uma máquina superinteligente que controla o mundo parece ficção científica. Mas já existem máquinas que executam certas tarefas importantes de forma independente, sem que os programadores entendam totalmente como as aprenderam. Surge, portanto, a questão de saber se isso poderia em algum momento se tornar incontrolável e perigoso para a humanidade.”
Os cientistas exploraram duas ideias diferentes de como uma IA superinteligente poderia ser controlada. Por um lado, as capacidades da IA superinteligente poderiam ser especificamente limitadas, por exemplo, bloqueando-a da Internet e de todos os outros dispositivos técnicos para que não pudesse ter contato com o mundo exterior – ainda assim, isso tornaria a IA superinteligente significativamente menos poderosa, menos capaz de reagir às missões de humanidades. Sem essa opção, a IA poderia ser motivada desde o início a buscar apenas objetivos que atendam aos melhores interesses da humanidade, por exemplo, programando princípios éticos nela. No entanto, os pesquisadores também mostram que essas e outras ideias contemporâneas e históricas para controlar a IA superinteligente têm seus limites.
Em seu estudo, a equipe concebeu um algoritmo de contenção teórica que garante que uma IA superinteligente não possa prejudicar as pessoas em nenhuma circunstância, simulando o comportamento da IA primeiro e interrompendo-o se for considerado prejudicial. Mas uma análise cuidadosa mostra que em nosso paradigma atual de computação, esse algoritmo não pode ser construído.
Iyad Rahwan, Diretor do Centro para Humanos e Máquinas, disse:
“Se você dividir o problema em regras básicas da ciência da computação teórica, descobre-se que um algoritmo que comandaria uma IA para não destruir o mundo poderia inadvertidamente interromper suas próprias operações. Se isso acontecer, você não saberá se o algoritmo de contenção ainda está analisando a ameaça ou se parou para conter a IA prejudicial. Na verdade, isso torna o algoritmo de contenção inutilizável.”
Com base nesses cálculos, o problema de contenção é incomputável, ou seja, nenhum algoritmo único pode encontrar uma solução para determinar se uma IA produziria danos ao mundo. Além disso, os pesquisadores demonstram que podemos nem mesmo saber quando as máquinas superinteligentes chegaram, porque decidir se uma máquina exibe inteligência superior aos humanos está no mesmo reino do problema de contenção.
O estudo “Superintelligence cannot be contained: Lessons from Computability Theory“ (“Superinteligência não pode ser contida: Lições da Teoria da Computabilidade“) foi publicado no Journal of Artificial Intelligence Research. Outros pesquisadores do estudo incluem Andres Abeliuk da University of Southern California, Manuel Alfonseca da Universidade Autônoma de Madrid, Antonio Fernandez Anta do IMDEA Networks Institute e Lorenzo Coviello.
https://www.ovnihoje.com/2021/01/14/humanos-nao-serao-capazes-de-controlar-maquinas-superinteligentes/
Nenhum comentário:
Postar um comentário