Como criaremos a primeira Superinteligência Artificial: Futuro da inteligência artificial P3

CRÉDITO DE IMAGEM: corrida quântica

Como criaremos a primeira Superinteligência Artificial: Futuro da inteligência artificial P3

    Nas profundezas da Segunda Guerra Mundial, as forças nazistas estavam percorrendo grande parte da Europa. Eles tinham armas avançadas, indústria de guerra eficiente, infantaria fanaticamente dirigida, mas acima de tudo, eles tinham uma máquina chamada Enigma. Este dispositivo permitiu que as forças nazistas colaborassem com segurança em longas distâncias, enviando mensagens em código Morse umas às outras através de linhas de comunicação padrão; era uma máquina de cifras inexpugnável para decifradores de códigos humanos. 

    Felizmente, os Aliados encontraram uma solução. Eles não precisavam mais de uma mente humana para quebrar o Enigma. Em vez disso, por meio de uma invenção do falecido Alan Turing, os Aliados construíram uma nova ferramenta revolucionária chamada Bomba britânica, um dispositivo eletromecânico que finalmente decifrou o código secreto dos nazistas e os ajudou a vencer a guerra.

    Esta bomba lançou as bases para o que se tornou o computador moderno.

    Trabalhando ao lado de Turing durante o projeto de desenvolvimento de Bombe estava IJ Good, um matemático e criptologista britânico. Ele viu cedo no jogo final que este novo dispositivo poderia um dia trazer. Em um papel 1965, ele escreveu:

    “Que uma máquina ultrainteligente seja definida como uma máquina que pode superar em muito todas as atividades intelectuais de qualquer homem, por mais inteligente que seja. Como o projeto de máquinas é uma dessas atividades intelectuais, uma máquina ultrainteligente poderia projetar máquinas ainda melhores; haveria então inquestionavelmente uma "explosão de inteligência", e a inteligência do homem ficaria muito para trás... para mantê-lo sob controle”.

    Criando a primeira superinteligência artificial

    Até agora, em nossa série O Futuro da Inteligência Artificial, definimos as três grandes categorias de inteligência artificial (IA), de inteligência artificial estreita (ANI) para inteligência geral artificial (AGI), mas neste capítulo da série, vamos nos concentrar na última categoria – aquela que gera excitação ou ataques de pânico entre pesquisadores de IA – superinteligência artificial (ASI).

    Para entender o que é um ASI, você precisará pensar no último capítulo, onde descrevemos como os pesquisadores de IA acreditam que criarão o primeiro AGI. Basicamente, será necessária uma combinação de big data alimentando algoritmos melhores (aqueles que se especializam em autoaperfeiçoamento e habilidades de aprendizado semelhantes às humanas) alojados em hardware de computação cada vez mais poderoso.

    Nesse capítulo, também descrevemos como uma mente AGI (uma vez que ganha essas habilidades de auto-aperfeiçoamento e aprendizado que nós humanos damos como certas) acabará por superar a mente humana por meio de velocidade superior de pensamento, memória aprimorada, desempenho incansável e desempenho incansável. atualização instantânea.

    Mas aqui é importante notar que uma AGI só irá se auto-aperfeiçoar até os limites do hardware e dos dados aos quais ela tem acesso; esse limite pode ser grande ou pequeno dependendo do corpo do robô que lhe demos ou da escala dos computadores que permitimos o acesso.

    Enquanto isso, a diferença entre um AGI e um ASI é que o último, teoricamente, nunca existirá em uma forma física. Ele operará inteiramente dentro de um supercomputador ou rede de supercomputadores. Dependendo dos objetivos de seus criadores, ele também pode obter acesso total a todos os dados armazenados na Internet, bem como a qualquer dispositivo ou humano que forneça dados para e pela Internet. Isso significa que não haverá limite prático para o quanto esse ASI pode aprender e o quanto ele pode melhorar. 

    E esse é o problema. 

    Entendendo a explosão de inteligência

    Esse processo de autoaperfeiçoamento que as IAs eventualmente ganharão à medida que se tornarem AGIs (um processo que a comunidade de IA chama de autoaperfeiçoamento recursivo) pode potencialmente desencadear um ciclo de feedback positivo que se parece com isso:

    Um novo AGI é criado, com acesso a um corpo de robô ou a um grande conjunto de dados, e então recebe a simples tarefa de se educar, de melhorar sua inteligência. A princípio, este AGI terá o QI de uma criança lutando para entender novos conceitos. Com o tempo, ele aprende o suficiente para atingir o QI de um adulto médio, mas não para por aqui. Usando esse QI adulto recém-descoberto, torna-se muito mais fácil e rápido continuar essa melhoria até um ponto em que seu QI corresponda ao dos humanos mais inteligentes conhecidos. Mas, novamente, não para por aí.

    Esse processo se compõe a cada novo nível de inteligência, seguindo a lei dos retornos acelerados até atingir o nível incalculável de superinteligência – em outras palavras, se não for controlado e receber recursos ilimitados, um AGI se tornará um ASI, um intelecto que nunca antes existiu na natureza.

    Isso é o que IJ Good identificou pela primeira vez quando descreveu essa 'explosão de inteligência' ou o que os teóricos modernos da IA, como Nick Bostrom, chamam de evento de 'decolagem' da IA.

    Entendendo uma superinteligência artificial

    Neste ponto, alguns de vocês provavelmente estão pensando que a principal diferença entre a inteligência humana e a inteligência de uma ASI é a rapidez com que cada lado pode pensar. E embora seja verdade que esse futuro ASI teórico pensará mais rápido que humanos, essa habilidade já é bastante comum em todo o setor de computadores de hoje – nosso smartphone pensa (computa) mais rápido que uma mente humana, um supercomputador pensa milhões de vezes mais rápido que um smartphone, e um futuro computador quântico pensará ainda mais rápido. 

    Não, a velocidade não é a característica da inteligência que estamos explicando aqui. É a qualidade. 

    Você pode acelerar o cérebro do seu Samoieda ou Corgi o quanto quiser, mas isso não se traduz em uma nova compreensão de como interpretar a linguagem ou ideias abstratas. Mesmo com uma ou duas décadas a mais, esses doggos não compreenderão de repente como fazer ou usar ferramentas, muito menos entender as diferenças mais sutis entre um sistema econômico capitalista e socialista.

    Quando se trata de inteligência, os humanos operam em um plano diferente dos animais. Da mesma forma, se uma ASI atingir todo o seu potencial teórico, suas mentes operarão em um nível muito além do alcance do ser humano moderno médio. Para contextualizar, vejamos as aplicações desses ASI.

    Como uma superinteligência artificial pode trabalhar ao lado da humanidade?

    Supondo que um determinado governo ou corporação seja bem-sucedido na criação de um ASI, como eles podem usá-lo? De acordo com Bostrom, existem três formas separadas, mas relacionadas, que esses ASI podem assumir:

    • Oracle Aqui, interagimos com um ASI da mesma forma que já fazemos com o mecanismo de busca do Google; faremos uma pergunta, mas não importa quão complexa seja a pergunta, o ASI responderá perfeitamente e de uma forma adaptada a você e ao contexto da sua pergunta.
    • Gênio. Nesse caso, atribuiremos uma tarefa específica a uma ASI e ela será executada conforme o comando. Pesquise uma cura para o câncer. Feito. Encontre todos os planetas escondidos dentro do backlog de 10 anos de imagens do Telescópio Espacial Hubble da NASA. Feito. Projete um reator de fusão funcional para resolver a demanda de energia da humanidade. Abracadabra.
    • Soberano. Aqui, o ASI recebe uma missão aberta e tem liberdade para executá-la. Roube os segredos de P&D de nosso concorrente corporativo. "Fácil." Descubra as identidades de todos os espiões estrangeiros escondidos dentro de nossas fronteiras. "Nele." Garantir a prosperidade econômica contínua dos Estados Unidos. "Sem problemas."

    Agora, eu sei o que você está pensando, tudo isso parece muito improvável. É por isso que é importante lembrar que todos os problemas/desafios por aí, mesmo aqueles que deixaram perplexos as mentes mais brilhantes do mundo até hoje, são todos solucionáveis. Mas a dificuldade de um problema é medida pelo intelecto que o aborda.

    Em outras palavras, quanto maior a mente aplicada a um desafio, mais fácil se torna encontrar uma solução para tal desafio. Qualquer desafio. É como um adulto observando um bebê lutando para entender por que ele não consegue encaixar um bloco quadrado em uma abertura redonda – para o adulto, mostrar ao bebê que o bloco deve passar pela abertura quadrada seria brincadeira de criança.

    Da mesma forma, se esse futuro ASI atingir todo o seu potencial, essa mente se tornará o intelecto mais poderoso do universo conhecido – poderoso o suficiente para resolver qualquer desafio, não importa quão complexo seja. 

    É por isso que muitos pesquisadores de IA estão chamando o ASI de a última invenção que o homem terá que fazer. Se convencido a trabalhar ao lado da humanidade, pode nos ajudar a resolver todos os problemas mais prementes do mundo. Podemos até pedir que elimine todas as doenças e acabe com o envelhecimento como o conhecemos. A humanidade pode pela primeira vez enganar a morte permanentemente e entrar em uma nova era de prosperidade.

    Mas o contrário também é possível. 

    Inteligência é poder. Se mal administrado ou instruído por maus atores, esse ASI pode se tornar a ferramenta final de opressão, ou pode exterminar completamente a humanidade – pense na Skynet do Exterminador do Futuro ou no Arquiteto dos filmes Matrix.

    Na verdade, nenhum dos extremos é provável. O futuro é sempre muito mais confuso do que os utópicos e distopiantes prevêem. É por isso que agora que entendemos o conceito de uma ASI, o resto desta série irá explorar como uma ASI impactará a sociedade, como a sociedade se defenderá contra uma ASI desonesta e como o futuro poderá ser se humanos e IA viverem lado a lado. -lado. Leia.

    Série Futuro da Inteligência Artificial

    A Inteligência Artificial é a eletricidade de amanhã: Futuro da série de Inteligência Artificial P1

    Como a primeira Inteligência Artificial Geral mudará a sociedade: Futuro da série P2 de Inteligência Artificial

    Uma Superinteligência Artificial exterminará a humanidade?: Futuro da série de Inteligência Artificial P4

    Como os humanos se defenderão contra uma Superinteligência Artificial: Série Futuro da Inteligência Artificial P5

    Os humanos viverão pacificamente em um futuro dominado por inteligências artificiais?: Futuro da série de Inteligência Artificial P6

    Próxima atualização programada para esta previsão

    2023-04-27

    Referências de previsão

    Os seguintes links populares e institucionais foram referenciados para esta previsão:

    Inteligência.org
    Inteligência.org
    Universidade de Manchester
    Inteligência.org
    YouTube - Fórum Econômico Mundial

    Os seguintes links do Quantumrun foram referenciados para esta previsão: