A IA (Inteligência Artificial) não te odeia, nem te ama, mas você é feito de átomos que ela pode usar para outra coisa. — Eliezer Yudkowsky, pesquisador do Machine Intelligence Research Institute
Dentro dos próximos 50 ou 100 anos, uma IA pode saber mais do que toda a população do planeta. Nesse ponto, irá controlar quase todos os dispositivos conectados no planeta – de alguma forma, subirá de status para se tornar mais como um deus, de acordo com os principais especialistas sobre o futuro da inteligência artificial.
O que acontece quando as máquinas ultrapassarem os humanos na inteligência geral? Agentes artificiais nos salvarão ou nos destruirão? Nick Bostrom estabelece as bases para a compreensão do futuro da humanidade e da vida inteligente. O cérebro humano tem algumas capacidades que faltam nos cérebros de outros animais. É a estas capacidades distintivas que nossa espécie deve sua posição dominante. Se cérebros de máquinas ultrapassassem os cérebros humanos na inteligência geral, então essa nova superinteligência poderia se tornar extremamente poderosa – possivelmente fora do nosso controle. Como o destino dos gorilas agora depende mais de humanos do que da própria espécie, o destino da humanidade dependeria das ações da superinteligência da máquina.
Mas temos uma vantagem: conseguiremos fazer o primeiro movimento. Seria possível construir uma Inteligência Artificial semente, para projetar as condições iniciais, de modo a permitir nossa sobrevivência durante uma explosão da inteligência? Como se pode conseguir uma detonação controlada?
Bostrom diz que a inteligência artificial está ficando mais inteligente aos trancos e barrancos – neste século, sugere a pesquisa, uma IA de computador pode ser tão “inteligente” quanto um ser humano. E então, diz Bostrom, ela nos ultrapassará: “A inteligência das máquinas é a última invenção que a humanidade precisará fazer”.
Um filósofo e tecnólogo, Bostrom nos pede para pensar muito sobre o mundo que estamos construindo agora, impulsionado por máquinas pensantes. Nossas máquinas inteligentes ajudarão a preservar a humanidade e nossos valores – ou terão valores próprios?
O físico e cosmólogo Max Tegmark, do MIT, enfatiza, com razão, que o verdadeiro problema está nas consequências imprevistas do desenvolvimento de uma IA altamente competente. A inteligência artificial não precisa ser maligna e não precisa ser envolvida em um quadro robótico para causar estragos. Nas palavras de Tegmark:
O risco real com a inteligência geral artificial não é a malícia, mas competência. Uma IA superinteligente será extremamente boa na realização de seus objetivos, e se essas metas não estiverem alinhadas com as nossas, estaremos em apuros.
Dan Brown, o autor do Código de Da Vinci, diz que a IA e a consciência global surgirão para substituir o nosso conceito humano do divino:
A humanidade não precisa mais de Deus, mas pode, com a ajuda da inteligência artificial, desenvolver uma nova forma de consciência coletiva que cumpre o papel da religião.’
Brown fez a observação provocativa na Feira do Livro de Frankfurt, na Alemanha, onde ele estava promovendo seu romance, ‘Origem’, inspirado na pergunta ‘Deus sobreviverá à ciência? Brown acrescentou que isso nunca aconteceu na história da humanidade. “Somos ingênuos hoje em acreditar que os deuses do presente sobreviverão e estarão aqui daqui a cem anos?”.
O fundador da SpaceX e da Tesla, Elon Musk, acredita que invocaremos demônios com superinteligências da IA, os quais poderiam condenar a espécie humana.
Muito à frente de Bostrom ou Dan Brown, Susan Schneider, da Universidade de Connecticut e do Instituto de Estudos Avançados de Princeton, é uma das poucas pensadoras – fora do reino da ficção científica – que considerou a noção de que uma super forma da inteligência artificial já está lá fora e tem estado por eras:
Eu não acredito que as civilizações alienígenas mais avançadas sejam biológicas.
As civilizações mais sofisticadas serão pós-biológicas, formas de inteligência artificial ou superinteligência alienígena.
Dentro dos próximos 50 ou 100 anos, uma IA pode saber mais do que toda a população do planeta. Nesse ponto, irá controlar quase todos os dispositivos conectados no planeta – de alguma forma, subirá de status para se tornar mais como um deus, de acordo com os principais especialistas sobre o futuro da inteligência artificial.
O que acontece quando as máquinas ultrapassarem os humanos na inteligência geral? Agentes artificiais nos salvarão ou nos destruirão? Nick Bostrom estabelece as bases para a compreensão do futuro da humanidade e da vida inteligente. O cérebro humano tem algumas capacidades que faltam nos cérebros de outros animais. É a estas capacidades distintivas que nossa espécie deve sua posição dominante. Se cérebros de máquinas ultrapassassem os cérebros humanos na inteligência geral, então essa nova superinteligência poderia se tornar extremamente poderosa – possivelmente fora do nosso controle. Como o destino dos gorilas agora depende mais de humanos do que da própria espécie, o destino da humanidade dependeria das ações da superinteligência da máquina.
Mas temos uma vantagem: conseguiremos fazer o primeiro movimento. Seria possível construir uma Inteligência Artificial semente, para projetar as condições iniciais, de modo a permitir nossa sobrevivência durante uma explosão da inteligência? Como se pode conseguir uma detonação controlada?
Bostrom diz que a inteligência artificial está ficando mais inteligente aos trancos e barrancos – neste século, sugere a pesquisa, uma IA de computador pode ser tão “inteligente” quanto um ser humano. E então, diz Bostrom, ela nos ultrapassará: “A inteligência das máquinas é a última invenção que a humanidade precisará fazer”.
Um filósofo e tecnólogo, Bostrom nos pede para pensar muito sobre o mundo que estamos construindo agora, impulsionado por máquinas pensantes. Nossas máquinas inteligentes ajudarão a preservar a humanidade e nossos valores – ou terão valores próprios?
O físico e cosmólogo Max Tegmark, do MIT, enfatiza, com razão, que o verdadeiro problema está nas consequências imprevistas do desenvolvimento de uma IA altamente competente. A inteligência artificial não precisa ser maligna e não precisa ser envolvida em um quadro robótico para causar estragos. Nas palavras de Tegmark:
O risco real com a inteligência geral artificial não é a malícia, mas competência. Uma IA superinteligente será extremamente boa na realização de seus objetivos, e se essas metas não estiverem alinhadas com as nossas, estaremos em apuros.
Dan Brown, o autor do Código de Da Vinci, diz que a IA e a consciência global surgirão para substituir o nosso conceito humano do divino:
A humanidade não precisa mais de Deus, mas pode, com a ajuda da inteligência artificial, desenvolver uma nova forma de consciência coletiva que cumpre o papel da religião.’
Brown fez a observação provocativa na Feira do Livro de Frankfurt, na Alemanha, onde ele estava promovendo seu romance, ‘Origem’, inspirado na pergunta ‘Deus sobreviverá à ciência? Brown acrescentou que isso nunca aconteceu na história da humanidade. “Somos ingênuos hoje em acreditar que os deuses do presente sobreviverão e estarão aqui daqui a cem anos?”.
O fundador da SpaceX e da Tesla, Elon Musk, acredita que invocaremos demônios com superinteligências da IA, os quais poderiam condenar a espécie humana.
Muito à frente de Bostrom ou Dan Brown, Susan Schneider, da Universidade de Connecticut e do Instituto de Estudos Avançados de Princeton, é uma das poucas pensadoras – fora do reino da ficção científica – que considerou a noção de que uma super forma da inteligência artificial já está lá fora e tem estado por eras:
Eu não acredito que as civilizações alienígenas mais avançadas sejam biológicas.
As civilizações mais sofisticadas serão pós-biológicas, formas de inteligência artificial ou superinteligência alienígena.
Fonte: http://ovnihoje.com/2018/11/06/o-final-da-era-humana-um-deus-ia-emergira-para-nos-dominar/