Especialistas advertem sobre os riscos da superinteligência artificial

super artificial inteligence
Superinteligência Artificial e as tecnologias do futuro podem ser um risco, advertem especialistas

Durante um recente encontro das Nações Unidas sobre riscos globais emergentes, representantes políticos de todo o mundo foram avisados sobre os perigos impostos pela inteligencia artificial e outras tecnologias do futuro.

O evento organizado pelos representantes da ONU na Georgia e o Instituto de Pesquisa de Crimes e Justiça da ONU Internacional (UNICRI), foi criado para promover o debate sobre os riscos nacionais e internacionais de segurança impostos pelas novas tecnologias, incluindo químicos, biológicos, radiológicos e nucleares (CBRN).

O painel também tratou sobre uma discussão especial e os potenciais riscos trazidos pela superinteligência artificial, que é a capacidade das máquinas superarem ou excederem a inteligência humana. A proposta do encontro, feito no dia 14 de outubro, foi discutir as implicações das tecnologias emergentes, e como agir proativamente mitigando os riscos.

O encontro destacou dois especialistas no assunto, Max Tegmark, um físico do MIT, e Nick Bostron, fundador do Institudo para o Futuro da Humanidade de Oxford e autor do livro Superintelligence: Paths, Dangers, Strategies(Superinteligência: Caminhos, Perigos, Estratégias). Os dois concordam que a inteligência artificial tem a capacidade de transformar a sociedade de uma maneira positiva, mas levantaram questões sobre como a tecnologia pode evoluir rapidamente e ficar fora de controle e se virar contra nós.

Em 2014, Tegmark, junto com o físico Stephen Hawking, professor de ciência da computação Stuart Russel, e outro físico Frank Wilczek, advertiram sobre a cultura atual de complacência no que diz respeito a maquinas superinteligentes.

“Podemos imaginar tecnologias mais inteligentes que os mercados financeiros, superando pesquisadores humanos, manipulando líderes políticos, e inventando armas que nem poderíamos entender,” escreveram os autores. “Considerando que o impacto a curto prazo da inteligência artificial depende de quem a controla, o impacto a longo prazo depende saber se ela pode ser controlada totalmente.”

Nick Bostrom
Nick Bostrom na TED 2015 – Truth and Dare, Sessão 3, Março de 2015, no centro de convenções de Vancouver, Canada. foto: Bret Hartman/TED

De fato, como Bostrom explicou aos participantes, a superinteligência trás desafios fundamentais e técnicos únicos, e  problema “controle” é o mais crítico.

“Existem cenários plausíveis onde sistemas com superinteligência se tornam muito poderosos,” diz ele no encontro, “E existem estas maneira superficialmente plausíveis de resolver o problema de controle, idéias que surgem repentinamente na cabeça das pessoas que, examinando de perto, se tornam falhas. Então existe este, ainda aberto, problema sem solução em como desenvolver mecanismos de controle melhorados”

Isso se prova ser difícil, diz Bostrom, porque precisaremos destes mecanismos de controle antes de construirmos estes sistemas inteligentes.

Bostrom encerrou sua participação no encontro recomendando que um campo precisa ser estabelecido para avançarmos fundamentalmente e tecnicamente no trabalho de controlar o problema, enquanto isso trabalhar para atrair experts em matemática e ciência da computação para este campo.

Ele apelou para uma forte colaboração de pesquisa entre a comunidade de segurança e de desenvolvimento de inteligência artificial, e para todas as partes envolvidas incorporarem o bom princípio comum em todos os projetos de IA de longo alcance. Esta é uma tecnologia exclusiva, disse ele, que deve ser desenvolvida para o bem comum da humanidade, e não apenas a indivíduos ou empresas privadas.

Como Bostrom explicou aos delegados da ONU, a superinteligência representa um risco existencial para a humanidade, que ele definiu como “um risco que ameaça a extinção prematura de vida inteligente original da Terra ou a destruição permanente e drástica de seu potencial para o desenvolvimento futuro desejável.” A atividade humana, advertiu Bostrom, representa uma ameaça muito maior para o futuro da humanidade nos próximos 100 anos do que os desastres naturais.

“Todos os riscos existenciais realmente grandes estão na categoria antrópica”, disse ele. “Os seres humanos têm sobrevivido a terremotos, pragas, queda de asteroides, mas neste século vamos introduzir inteiramente novos fenômenos e fatores para o mundo. A maioria das ameaças plausíveis tem a ver com tecnologias futuras antecipadas.”

  • Definição do que é um Ambiente Antrópico. Do grego, anthropos – gente, homem. Ambiente Natural modificado pelo ser humano. Ambiente onde vive o ser humano.

Pode se passar décadas antes de vermos os tipos de superinteligência descritos nesta reunião da ONU, mas já que estamos falando de um potencial de risco existencial, nunca é cedo para começar. Muitos elogios para todos os envolvidos.

Fonte: Gizmodo

 

 

 

Publicações relacionadas

8 Thoughts to “Especialistas advertem sobre os riscos da superinteligência artificial”

  1. Uau, eu tinha esse receio. Interessante. Abs

  2. Bom, não é maior ( o risco ) do que a inteligência natural

    1. O problema é que é da inteligência natural que ocorrerá a tal superação, espere para ver a próxima postagem, “Como nascerá a superinteligência artificial”

  3. […] Fonte: Especialistas advertem sobre os riscos da superinteligência artificial […]

  4. Eder acredito que quando fizeram o filme do exterminador falando sobre a Skynet já se tinha todo arranjo e conhecimento de causa. Essas tecnologias já vem sendo desenvolvidas de forma separadas o problema vai ser quando resolverem juntar uma na outra. Os japoneses com as suas “sexdolls” já altamente desenvolvidas ao ponto de terem temperatura corporal, movimentos internos e externos perceptíveis ao toque e agora também com opções de frases já é um passo bem perto da “Cherry 2000”. Bill Gates e Stephen Hawking já protestaram um tempo atrás sobre esse mal, mas depois me parece que o próprio Gates se interessou em começar a desenvolver junto a Intel esse programa.
    De uma espiadinha nessa matéria, http://hypescience.com/cientistas-gravam-22-pentabytes-de-dados-em-um-grama-de-dna/

    1. Impressionante meu caro colega a matéria, devagar as coisas vão se encaixando, e o futuro pode ser tenebroso. Internet das Coisas, realidade virtual, superinteligência, assim como você falou, quando montarem o quebra cabeças, precisamos ter muito cuidado.

  5. […] O destino da humanidade parece ter pesado muito sobre Hawking ultimamente, ele também recentemente advertiu que a inteligência artificial (AI) será “a melhor ou a pior coisa que jamais aconteça à humanidade”. […]

Obrigado por ler, deixe seus comentários e não esqueça de compartilhar

%d blogueiros gostam disto: