superinteligência artificialInteligência Artificial 

Como nascerá a superinteligência artificial

superinteligencia
Como nascerá a superinteligência artificial

Existe um dizer entre os futuristas que uma inteligência artificial similar a humana, será nossa última invenção. Depois disso, ela será capaz designar virtualmente tudo a seu favor, incluindo ela mesma. veja neste artigo como uma inteligencia artificial recursiva e auto suficiente pode transformar-se em uma máquina superinteligente.

Quando vem ao conhecimento o potencial da inteligência artificial, é um ponto crucial entender que ela pode eventualmente ser capaz de modificar-se, e que essas modificações podem permitir a ela aumentar sua inteligencia extremamente rápido.

Ultrapassando o limiar crítico

Uma vez sofisticada o suficiente, uma IA será capaz de engajar o que chamamos de auto suficiência recursiva. Assim como sistema se torna mais esperto e mais capaz, subsequentemente se tornará melhor na tarefa de desenvolver suas funções cognitivas internas.

Por vez, estas modificações desencadeariam uma cascata de series de melhoramentos, cada um fazendo a IA mais esperta na tarefa de melhoramento próprio. Isso é uma vantagem que nós seres humanos, biologicamente não temos.

superinteligência artificial
Como a inteligencia artificial poderá criar ela mesma?

Como Eliezer Yudkowsky um teórico em IA observa em seu artigo: “Inteligência Artificial como fator positivo e negativo no risco global”:

  • Uma inteligência artificial poderia reescrever seu código a partir do zero – ela poderia mudar a dinâmica subjacente de otimização. Tal processo de otimização iria envolver-se com muito mais força do que qualquer evolução acumulando adaptações ou conhecimento humanos. A implicação fundamental para os nossos propósitos é que a IA pode fazer um salto enorme em inteligência depois de atingir um limiar de criticidade.

Quando se trata da velocidade dessas melhorias, Yudkowsky diz que é importante não confundir a velocidade atual da investigação em IA com a velocidade de uma verdadeira IA uma vez construída. Essas são duas coisas muito diferentes.

Além do mais, não há nenhuma razão para acreditar que uma IA não vai mostrar um grande salto repentino na inteligência, resultando em uma consequente “explosão de inteligência” (um termo melhor para a Singularidade). Ele faz uma analogia com a expansão do cérebro e do córtex pré-frontal humano – um limiar fundamental na inteligência que nos permitiu dar um salto evolutivo profundo na eficácia do mundo real; “Passamos de cavernas para arranha-céus em um piscar de olhos evolutivo.

O caminho para uma Inteligência Artificial auto suficiente

O código que é capaz de alterar suas próprias instruções enquanto é executado está por ai a algum tempo. Tipicamente isso é feito para reduzir o tamanho do caminho de instruções e melhorar a performance, ou simplesmente reduzir a repetição de um código similar. Mas para todas as intenções existe um propósito, não existem sistemas de inteligência artificial com auto conhecimento e auto melhoramento.

Mas como o autor de “Our Final Invention” (Nossa Invenção Final), James Barrat disse, não temos software que pode escrever software.

“A programação genética é uma técnica de aprendizagem de máquina que utiliza a força da seleção natural para encontrar respostas para os problemas que os seres humanos levariam muito tempo, até anos, para resolver”, disse James Barrat. “Ele também é usado para escrever, software de alta potência inovadora.”

código da superinteligência de máquina

Exemplo de um código auto suficiente em evolução

Por exemplo, Primary Objects embarcou em um projeto que usa uma inteligência artificial simples para escrever programas. Os desenvolvedores usam um algoritmo genético embutido com um código de auto modificação, auto melhoramento e uma linguagem de programação minimalista, baseada em Turing, chamada brainfuck.

Eles escolheram essa linguagem como uma maneira de desafiar o programa, ele precisa ensinar a ele mesmo a partir do zero como fazer algo tão simples como escrever “Olá Mundo!” com apenas oito comandos simples.

Mas chamar isso de uma abordagem de IA é um pouco exagerado; os algoritmos genéticos são uma forma de força bruta para obter-se um resultado desejável. Dito isto, uma abordagem de acompanhamento em que a inteligência artificial foi capaz de gerar programas que aceitar comandos do usuário parece mais promissor.

De um modo semelhante, Larry Diehl tem feito um trabalho semelhante, usando uma linguagem baseada em pilha.

O Pentágono está particularmente interessado nesse jogo. Por meio da DARPA, ela espera desenvolver um computador que possa ensinar a ele mesmo. Em última análise, ele quer criar máquinas que são capazes de realizar uma série de tarefas complexas, como a aprendizagem não supervisionada, visão, planejamento e seleção de modelos estatísticos.

Estes computadores vão mesmo ser usados para nos ajudar a tomar decisões quando os dados são muito complexos para compreendermos por conta própria. Tal arquitetura pode representar um passo importante na inicialização da capacidade de um IA para ensinar a si mesmo e, em seguida, re-escrever-se e melhorar a sua programação inicial.

Em conjunto com esse tipo de pesquisa, abordagens cognitivas para emulação do cérebro também poderiam levar a uma inteligência artificial semelhante à humana. Dado que eles estariam baseadas em computador, e assumindo que poderiam ter acesso ao seu próprio código-fonte, estes agentes poderiam embarcar em uma auto-modificação.

Mais realisticamente, no entanto, é provável que uma superinteligência vai emergir de um sistema especialista com uma tarefa definida, como melhorar a sua própria inteligência.

Alternativamente, sistemas especialistas especializados poderiam projetar outras inteligências artificiais, e através de seus esforços cumulativos, desenvolver um sistema que eventualmente torna-se maior que a soma de suas partes.

Essa não, você não…

Dado que a IA represente um risco existencial, é importante considerar as maneiras em que nós podemos ser capazes de impedir que um IA melhore a si mesmo além da nossa capacidade de controla-la. Dito isto, podem existir limitações ou disposições que se opõem a um IA de embarcar no caminho para a auto-engenharia. James D. Miller, autor de Singularity Rising, forneceu uma lista de quatro razões pelas quais um IA poderia não ser capaz de fazer isso:

  1. Ele pode ter um código-fonte que não permita a modificação.
  2. A primeira IA equivalente a um humano poderia exigir grandes quantidades de hardware e assim por um tempo curto não seria possível obter o hardware extra necessário para modificar-se.
  3. A primeira IA equivalente a um humano poderia ser uma emulação do cérebro (como sugerido por Robin Hanson) e isso seria difícil de modificar. Isso pode acontecer se formos capazes de copiar o cérebro antes de realmente entendê-lo. Mas ainda assim seria possível, ao menos, acelerar tudo.
  4. Se ele possuir valores terminais, não iria querer modificar tais valores, pois isso tornaria menos provável em atingir os seus valores terminais.

E sobre valores terminais, Miller refere-se a um objetivo final, ou um fim nele mesmo. Yudkowsky descreve isso como um “super objetivo”. Uma grande preocupação é que um IA amoral vai deixar a humanidade de lado para realizar o seu valor terminal, ou se o seu objetivo final for a re-engenharia da humanidade de uma forma grosseiramente indesejável (pelo menos do nosso ponto de vista).

Miller diz que isso poderia chegar mais rápido simplesmente sendo feito em processadores mais rápidos.

“Também poderia fazer mudanças em seu software para obter mais eficiência, ou desenhar ou roubar um hardware melhor. Ele faria isso para que pudesse realizar mais efetivamente os seus valores terminais”, diz ele. “Um IA que dominasse a nanotecnologia, por exemplo, provavelmente expandiria-se a quase a velocidade da luz, incorporando tudo em si mesmo.”

Mas nós não podemos estar completamente indefesos. De acordo com Barrat, uma vez que os cientistas atingirem a Inteligência Artificial Geral, um AI semelhante à humana, eles poderiam restringir o seu acesso às redes, hardware e software, a fim de evitar uma explosão de inteligência.

Crescimento da superinteligencia
O sistema inteligente estaria impedido de acessar as redes evitando seu desenvolvimento exponencial.

“No entanto, como proponho no meu livro, uma Inteligência Artificial poderia desenvolver habilidades de sobrevivência como enganar seus criadores sobre a sua atual taxa de desenvolvimento. Pode ficar em silêncio até que ele compreenda o seu ambiente bem o suficiente para escapar.” Como no filme Ex-Machina.

Em termos de ser capaz de controlar este processo, Miller diz que a melhor maneira seria criar um IA que só queria modificar-se de maneiras que nós aprovaríamos.

“Então, se você criar um IA que tem um valor final de simpatia para a humanidade, ele não gostaria de mudar-se de uma forma que cause hostilidade à humanidade”, diz ele. “Desta forma, como o IA ficou mais inteligente, ele usaria sua inteligência aprimorada para aumentar as chances de que isso não mude de uma maneira que nos prejudicaria.”

Devagar ou rápido?

Como observado anteriormente, melhorar de forma recursiva a IA poderia aumentar sua inteligência de forma extremamente rápida. Ou, pode ser um processo que leva tempo, por várias razões, tais como a complexidade tecnológica ou acesso limitado a recursos. É uma questão em aberto quanto à possibilidade ou não podemos esperar um evento de decolagem rápido ou lento.

superinteligência
A replicação da superinteligência depende de vários fatores, onde dois deles são a comunicação em rede e recursos disponíveis

“Eu acredito na versão rápida da decolagem da inteligência”, diz Barrat. “Uma vez que uma IA com auto-conhecimento, auto-melhoria em um nível humano ou melhor com inteligência existe, e é difícil saber o quão rápido ele vai ser capaz de melhorar a si mesmo. Sua taxa de melhoria vai depender de seu software, recursos de hardware e de rede.”

Mas, para ficarmos seguro, Barrat diz que devemos assumir que o auto-aperfeiçoamento recursivo de um IA vai ocorrer muito rapidamente. Como um computador que vai ter controle sobre computadores superpotentes, e capacidade de executar sem pausa, rapidamente acessar vastas bases de dados, realizar experiências complexas, talvez até clonar-se e disseminar problemas computacionais e muito mais.

“A partir daí, a IA estaria interessada na busca de qualquer objetivo que foi programado, tais como a investigação, exploração, ou finanças. De acordo com o teórico em IA Steve Omohundro a análise básica de drives e auto-aperfeiçoamento seria uma maneira infalível de melhorar a suas chances de sucesso”, diz Barrat. “Então ele buscaria auto-proteção, aquisição de recursos, criatividade e eficiência. Sem um sistema ético comprovadamente confiável, suas unidades entraria em conflito com a nossa, e poderia representar uma ameaça existencial.”

Miller concorda

“Eu acho que logo após um IA alcançar a inteligência de nível humano ela irá atualizar-se para a super-inteligência”, disse ele. “No mínimo, o IA poderia fazer lotes de cópias de si mesmo, cada um com uma mudança diferente e menor, em seguida ver se qualquer uma das novas versões de si seriam melhores. Em seguida, ele poderia fazer disso a nova versão ‘oficial’ de si mesmo e continuar fazendo isso. Qualquer IA teria que temer se não atualiza-se rapidamente, pois outro IA faria isso e tomaria todos os recursos do universo para si. ”

Isso traz um ponto que não é muitas vezes discutido em círculos de IA, o potencial de IA’s competir uns com os outros. Se até mesmo um mínimo de auto-preservação está codificado em uma inteligência artificial forte, (e que o senso de auto-preservação poderia ser a detecção de uma obstrução ao seu valor terminal), que poderia entrar em uma corrida armamentista ultra-rápida ao longo dessas verticais projetadas para garantir sua existência contínua e de liberdade de ação futura.

E, de fato, enquanto muitas pessoas temem o chamado “apocalipse robô” voltado diretamente para a extinção de nossa civilização, eu pessoalmente acho que o perigo real para nossa existência  está no potencial de sermos danos colaterais como IA’s avançados na batalha pela supremacia; podemos nos encontrar na linha de fogo. Na verdade, a construção de um AI seguro será uma tarefa monumental, se não for tratável.

♦♦♦♦♦♦♦♦♦♦

Esta é uma tradução livre feita por Suprimatec de um artigo publicado por George Dvorsky no site io9 tem como fontes: Global Catastrophic Risks, Bostrom & Cirkovic | Singularity Rising por James D. Miller | Our Final Invention por James Barrat.

Para ver o texto original em inglês clique no link a seguir: How Artificial Superintelligence Will Give Birth To Itself

 

Publicações relacionadas

2 Thoughts to “Como nascerá a superinteligência artificial”

  1. […] Musk, Stephen Hawking, e Bill Gates têm expressado preocupação sobre a inteligência artificial geral. É um tema muito debatido. Seria ela a nossa “invenção final?” A IA nas […]

  2. […] Por um lado, existem muitos dados para serem coletados por ai, mas ainda está tudo bagunçado. Por exemplo, as imagens necessárias para treinar as máquinas precisam ser processadas. “Muitos grupos pelo mundo estão gastando milhões de dólares nesta tarefa, pois isso é o principal gargalo para uma IA médica”, diz Oakden-Rayner. Como nascerá a superinteligência artificial. […]

Obrigado por ler, deixe seus comentários e não esqueça de compartilhar

%d blogueiros gostam disto: