Como os humanos se defenderão contra uma Superinteligência Artificial: Futuro da inteligência artificial P5

CRÉDITO DE IMAGEM: corrida quântica

Como os humanos se defenderão contra uma Superinteligência Artificial: Futuro da inteligência artificial P5

    O ano é 65,000 AEC, e como Thylacoleo, você e sua espécie eram os grandes caçadores da antiga Austrália. Você percorria a terra livremente e vivia em equilíbrio com os predadores e presas que ocupavam a terra ao seu lado. As estações trouxeram mudanças, mas seu status no reino animal permaneceu incontestável enquanto você e seus ancestrais pudessem se lembrar. Então, um dia, os recém-chegados apareceram.

    Há rumores de que eles chegaram da parede de água gigante, mas essas criaturas pareciam mais confortáveis ​​vivendo em terra. Você tinha que ver essas criaturas por si mesmo.

    Demorou alguns dias, mas você finalmente chegou à costa. O fogo no céu estava se pondo, um momento perfeito para espionar essas criaturas, talvez até tentar comer uma para ver o sabor.

    Você identifica um.

    Ele andava sobre duas pernas e não tinha pelos. Parecia fraco. Inexpressivo. Dificilmente valia o medo que estava causando entre o reino.

    Você começa a se aproximar com cuidado enquanto a noite afugenta a luz. Você está se aproximando. Então você congela. Ruídos altos soam e então mais quatro deles aparecem na floresta atrás dele. Quantos existem?

    A criatura segue os outros até a linha das árvores, e você segue. E quanto mais você faz, mais sons estranhos você ouve até encontrar ainda mais dessas criaturas. Você segue à distância enquanto eles saem da floresta para uma clareira na costa. Existem muitos deles. Mas o mais importante, eles estão todos calmamente sentados ao redor de uma fogueira.

    Você já viu esses incêndios antes. Na estação quente, o fogo no céu às vezes visitava a terra e queimava florestas inteiras. Essas criaturas, por outro lado, estavam de alguma forma controlando-o. Que tipo de criatura pode possuir tal poder?

    Você olha para longe. Mais estão vindo sobre a parede de água gigante.

    Você dá um passo para trás.

    Essas criaturas não são como as outras do reino. São algo inteiramente novo.

    Você decide sair e avisar seus parentes. Se seus números crescerem muito, quem sabe o que pode acontecer.

    ***

    Acredita-se que o Thylacoleo foi extinto pouco tempo após a chegada dos humanos, juntamente com a maioria da outra megafauna no continente australiano. Nenhum outro mamífero predador tomou seu lugar – isto é, a menos que você conte os humanos nessa categoria.

    Brincar com essa alegoria é o foco deste capítulo da série: uma futura superinteligência artificial (ASI) transformará todos nós em baterias e depois nos conectará à Matrix ou os humanos descobrirão uma maneira de evitar ser vítima de uma ficção científica? Trama apocalíptica da IA?

    Até agora em nossa série sobre o Futuro da Inteligência Artificial, exploramos todos os tipos de IA, incluindo o potencial positivo de uma forma específica de IA, a ASI: um ser artificial cuja inteligência futura nos fará parecer formigas em comparação.

    Mas quem pode dizer que um ser tão inteligente aceitaria receber ordens de humanos para sempre. O que faremos se as coisas derem errado? Como nos defenderemos contra um ASI desonesto?

    Neste capítulo, eliminaremos o falso hype — pelo menos no que se refere aos perigos do 'nível de extinção humana' — e focaremos nas opções realistas de autodefesa disponíveis para os governos mundiais.

    Podemos parar todas as pesquisas futuras sobre uma superinteligência artificial?

    Dados os riscos potenciais que uma ASI pode representar para a humanidade, a primeira pergunta óbvia a ser feita é: não podemos simplesmente interromper todas as pesquisas adicionais sobre IA? Ou pelo menos proibir qualquer pesquisa que possa nos colocar perigosamente perto de criar um ASI?

    Resposta curta: Não.

    Resposta longa: Vejamos os diferentes jogadores envolvidos aqui.

    No nível de pesquisa, há muitos pesquisadores de IA hoje de muitas startups, empresas e universidades ao redor do mundo. Se uma empresa ou país decidisse limitar seus esforços de pesquisa de IA, eles simplesmente continuariam em outro lugar.

    Enquanto isso, as empresas mais valiosas do planeta estão fazendo fortuna com a aplicação de sistemas de IA em seus negócios específicos. Pedir a eles que parem ou limitem o desenvolvimento de ferramentas de IA é como pedir que parem ou limitem seu crescimento futuro. Financeiramente, isso ameaçaria seus negócios de longo prazo. Legalmente, as corporações têm a responsabilidade fiduciária de construir continuamente valor para seus stakeholders; isso significa que qualquer ação que limite o crescimento desse valor pode levar a uma ação judicial. E se algum político tentasse limitar a pesquisa de IA, essas corporações gigantes pagariam apenas as taxas de lobby necessárias para mudar de ideia ou a de seus colegas.

    Para o combate, assim como terroristas e combatentes da liberdade em todo o mundo usaram táticas de guerrilha para lutar contra militares mais bem financiados, nações menores terão um incentivo para usar a IA como uma vantagem tática semelhante contra nações maiores que podem ter várias vantagens militares. Da mesma forma, para os principais militares, como os pertencentes aos EUA, Rússia e China, construir uma ASI militar é equivalente a ter um arsenal de armas nucleares no bolso. Em outras palavras, todos os militares continuarão financiando a IA apenas para permanecer relevante no futuro.

    E os governos? Na verdade, a maioria dos políticos hoje em dia (2018) é tecnologicamente analfabeta e tem pouca compreensão do que é a IA ou seu potencial futuro – isso os torna fáceis de manipular pelos interesses corporativos.

    E em nível global, considere como foi difícil convencer os governos mundiais a assinarem o Acordo de 2015 Acordo de Paris para enfrentar as mudanças climáticas — e, uma vez assinadas, muitas das obrigações nem eram vinculativas. Além disso, a mudança climática é um problema que as pessoas estão enfrentando fisicamente globalmente por meio de eventos climáticos cada vez mais frequentes e severos. Agora, quando se fala em concordar com os limites da IA, essa é uma questão que é amplamente invisível e pouco compreensível para o público, então boa sorte em conseguir qualquer tipo de 'Acordo de Paris' para limitar a IA.

    Em outras palavras, há muitos interesses pesquisando a IA para seus próprios fins para interromper qualquer pesquisa que possa levar a um ASI. 

    Podemos enjaular uma superinteligência artificial?

    A próxima pergunta razoável é que podemos enjaular ou controlar uma ASI uma vez que inevitavelmente criamos uma? 

    Resposta curta: Novamente, não.

    Resposta longa: a tecnologia não pode ser contida.

    Por um lado, basta considerar os milhares a milhões de desenvolvedores da web e cientistas da computação no mundo que constantemente produzem novos softwares ou novas versões de softwares existentes. Podemos dizer honestamente que cada uma de suas versões de software é 100% livre de bugs? Esses bugs são o que os hackers profissionais usam para roubar as informações de cartão de crédito de milhões ou os segredos classificados das nações – e esses são hackers humanos. Para um ASI, supondo que tivesse um incentivo para escapar de sua gaiola digital, o processo de encontrar bugs e romper o software seria muito fácil.

    Mas mesmo que uma equipe de pesquisa de IA tenha descoberto uma maneira de encaixotar um ASI, isso não significa que as próximas 1,000 equipes também descobrirão ou serão incentivadas a usá-lo.

    Levará bilhões de dólares e talvez até décadas para criar um ASI. As corporações ou governos que investem esse tipo de dinheiro e tempo esperam um retorno significativo de seu investimento. E para uma ASI fornecer esse tipo de retorno - seja para jogar no mercado de ações ou inventar um novo produto de bilhões de dólares ou planejar uma estratégia vencedora para combater um exército maior - ela precisará de acesso gratuito a um conjunto de dados gigante ou até mesmo à Internet para produzir esses retornos.

    E uma vez que um ASI obtém acesso às redes do mundo, não há garantias de que possamos enfiá-lo de volta em sua gaiola.

    Uma superinteligência artificial pode aprender a ser boa?

    No momento, os pesquisadores de IA não estão preocupados com o fato de uma ASI se tornar má. Todo o mal, o tropo de ficção científica da IA ​​são apenas humanos antropomorfizando novamente. Um futuro ASI não será nem bom nem mau — conceitos humanos — simplesmente amoral.

    A suposição natural, então, é que, dada essa lousa ética em branco, os pesquisadores de IA podem programar os primeiros códigos éticos da ASI que estejam alinhados com os nossos, para que não acabe liberando Exterminadores sobre nós ou transformando-nos em baterias Matrix.

    Mas essa suposição se baseia em uma suposição secundária de que os pesquisadores de IA também são especialistas em ética, filosofia e psicologia.

    Na verdade, a maioria não é.

    Segundo o psicólogo cognitivo e autor Steven Pinker, essa realidade significa que a tarefa de codificar a ética pode dar errado de várias maneiras.

    Por exemplo, mesmo os pesquisadores de IA mais bem intencionados podem inadvertidamente codificar esses códigos éticos mal pensados ​​da ASI que, em certos cenários, podem fazer com que a ASI aja como um sociopata.

    Da mesma forma, há uma probabilidade igual de que um pesquisador de IA programe códigos éticos que incluam os preconceitos inatos do pesquisador. Por exemplo, como uma ASI se comportaria se construída com ética derivada de uma perspectiva conservadora versus liberal, ou de uma tradição budista versus cristã ou islâmica?

    Acho que você vê a questão aqui: não existe um conjunto universal de moral humana. Se queremos que nossa ASI aja de acordo com um código ético, de onde virá? Que regras incluímos e excluímos? Quem decide?

    Ou digamos que esses pesquisadores de IA criem um ASI perfeitamente alinhado com as normas e leis culturais modernas de hoje. Em seguida, empregamos esse ASI para ajudar as burocracias federais, estaduais/provinciais e municipais a funcionarem com mais eficiência e fazerem cumprir melhor essas normas e leis (a propósito, um caso de uso provável para um ASI). Bem, o que acontece quando nossa cultura muda?

    Imagine que uma ASI foi criada pela Igreja Católica no auge de seu poder durante a Europa Medieval (1300-1400) com o objetivo de ajudar a igreja a administrar a população e garantir a adesão estrita ao dogma religioso da época. Séculos depois, as mulheres teriam os mesmos direitos que têm hoje? As minorias seriam protegidas? A liberdade de expressão seria promovida? A separação entre Igreja e Estado seria imposta? Ciência moderna?

    Em outras palavras, queremos aprisionar o futuro à moral e aos costumes de hoje?

    Uma abordagem alternativa é compartilhada por Colin Allen, coautor do livro, Máquinas morais: ensinando robôs certo do errado. Em vez de tentar codificar regras éticas rígidas, temos o ASI aprendendo ética e moralidade comuns da mesma maneira que os humanos, através da experiência e interações com os outros.

    O problema aqui, no entanto, é se os pesquisadores de IA descobrirem não apenas como ensinar a uma ASI nossas normas culturais e éticas atuais, mas também como se adaptar a novas normas culturais à medida que elas surgem (algo chamado 'normatividade indireta'), então como esta ASI decide evoluir sua compreensão das normas culturais e éticas torna-se imprevisível.

    E esse é o desafio.

    Por um lado, os pesquisadores de IA podem tentar codificar padrões ou regras éticas estritas no ASI para tentar controlar seu comportamento, mas correm o risco de consequências imprevistas serem introduzidas por codificação desleixada, viés não intencional e normas sociais que um dia podem se tornar desatualizadas. Por outro lado, podemos tentar treinar a ASI para aprender a entender a ética e a moral humana de uma maneira igual ou superior à nossa própria compreensão e, então, esperar que ela possa evoluir com precisão sua compreensão da ética e da moral à medida que a sociedade humana progride. nas próximas décadas e séculos.

    De qualquer forma, qualquer tentativa de alinhar os objetivos de uma ASI com os nossos apresenta um grande risco.

    E se os maus atores criarem propositalmente uma superinteligência artificial maligna?

    Dada a linha de pensamento descrita até agora, é uma questão justa perguntar se é possível para um grupo terrorista ou nação desonesta criar uma ASI 'malvada' para seus próprios fins.

    Isso é muito possível, especialmente depois que a pesquisa envolvida na criação de um ASI se torna disponível online de alguma forma.

    Mas, como sugerido anteriormente, os custos e a experiência envolvidos na criação do primeiro ASI serão enormes, o que significa que o primeiro ASI provavelmente será criado por uma organização controlada ou fortemente influenciada por uma nação desenvolvida, provavelmente EUA, China e Japão ( A Coreia e um dos principais países da UE são tiros no escuro).

    Todos esses países, enquanto concorrentes, têm um forte incentivo econômico para manter a ordem mundial – as ASIs que eles criam refletirão esse desejo, mesmo promovendo os interesses das nações com as quais se alinham.

    Além disso, a inteligência e o poder teórico de um ASI é igual ao poder de computação ao qual ele obtém acesso, ou seja, os ASIs de nações desenvolvidas (que podem pagar um monte de bilhões de dólares supercomputadores) terá uma enorme vantagem sobre as ASIs de nações menores ou grupos criminosos independentes. Além disso, os ASIs se tornam mais inteligentes, mais rapidamente ao longo do tempo.

    Assim, dada esta vantagem, combinada com maior acesso ao poder de computação bruto, se uma organização/nação obscura criar uma ASI perigosa, as ASIs de nações desenvolvidas irão matá-la ou enjaulá-la.

    (Essa linha de pensamento também é o motivo pelo qual alguns pesquisadores de IA acreditam que haverá apenas um ASI no planeta, já que o primeiro ASI terá uma vantagem sobre todos os ASIs sucessivos que pode ver os ASIs futuros como ameaças a serem mortas. Esta é mais uma razão pela qual as nações estão financiando pesquisas contínuas em IA, apenas no caso de se tornar uma competição de 'primeiro lugar ou nada'.)

    A inteligência ASI não vai acelerar ou explodir como pensamos

    Não podemos impedir que um ASI seja criado. Não podemos controlá-lo inteiramente. Não podemos ter certeza de que sempre agirá de acordo com nossos costumes compartilhados. Nossa, estamos começando a parecer pais de helicóptero aqui!

    Mas o que separa a humanidade de seu típico pai superprotetor é que estamos dando à luz um ser cuja inteligência crescerá muito além da nossa. (E não, não é o mesmo que quando seus pais pedem que você conserte o computador deles sempre que você chega em casa para uma visita.) 

    Nos capítulos anteriores desta série sobre o futuro da inteligência artificial, exploramos por que os pesquisadores de IA acham que a inteligência de uma ASI crescerá além do controle. Mas aqui, vamos estourar essa bolha... mais ou menos. 

    Veja bem, a inteligência não se cria apenas do nada, ela se desenvolve através da experiência moldada por estímulos externos.  

    Em outras palavras, podemos programar uma IA com o potencial para se tornar superinteligente, mas a menos que carreguemos nele uma tonelada de dados ou demos acesso irrestrito à Internet ou até mesmo demos um corpo de robô, ele não aprenderá nada para atingir esse potencial. 

    E mesmo que tenha acesso a um ou mais desses estímulos, conhecimento ou inteligência envolve mais do que apenas coletar dados, envolve o método científico – fazer uma observação, formular uma pergunta, uma hipótese, conduzir experimentos, tirar uma conclusão, enxaguar e repetir para sempre. Especialmente se esses experimentos envolverem coisas físicas ou observar seres humanos, os resultados de cada experimento podem levar semanas, meses ou anos para serem coletados. Isso nem leva em conta o dinheiro e os recursos brutos necessários para realizar esses experimentos, especialmente se envolverem a construção de um novo telescópio ou fábrica. 

    Em outras palavras, sim, um ASI aprenderá rapidamente, mas inteligência não é mágica. Você não pode simplesmente conectar um ASI a um supercomputador e esperar que ele seja onisciente. Haverá restrições físicas à aquisição de dados do ASI, o que significa que haverá restrições físicas à velocidade com que ele se tornará mais inteligente. Essas restrições darão à humanidade o tempo necessário para colocar os controles necessários sobre esta ASI se ela começar a agir em desacordo com os objetivos humanos.

    Uma superinteligência artificial só é perigosa se sair para o mundo real

    Outro ponto que se perde em todo esse debate sobre o perigo do ASI é que esses ASIs também não existirão. Eles terão uma forma física. E qualquer coisa que tenha uma forma física pode ser controlada.

    Em primeiro lugar, para um ASI atingir seu potencial de inteligência, ele não pode ser alojado dentro de um único corpo de robô, pois esse corpo limitaria seu potencial de crescimento computacional. (É por isso que os corpos do robô serão mais apropriados para os AGIs ou inteligências gerais artificiais explicadas no capítulo dois desta série, como Data de Star Trek ou R2D2 de Star Wars. Seres inteligentes e capazes, mas como os humanos, eles terão um limite de quão inteligentes podem ser.)

    Isso significa que esses futuros ASIs provavelmente existirão dentro de um supercomputador ou rede de supercomputadores que estão alojados em grandes complexos de edifícios. Se um ASI virar o calcanhar, os humanos podem desligar a energia desses prédios, cortá-los da Internet ou simplesmente bombardear esses prédios. Caro, mas factível.

    Mas então você pode perguntar, esses ASIs não podem se replicar ou fazer backup? Sim, mas o tamanho do arquivo bruto desses ASIs provavelmente será tão grande que os únicos servidores que podem lidar com eles pertencem a grandes corporações ou governos, o que significa que não será difícil caçá-los.

    Uma superinteligência artificial pode desencadear uma guerra nuclear ou uma nova praga?

    Neste ponto, você pode estar pensando em todos os programas e filmes de ficção científica apocalípticos que assistiu enquanto crescia e pensando que esses ASIs não ficavam dentro de seus supercomputadores, eles causavam danos reais no mundo real!

    Bem, vamos decompô-los.

    Por exemplo, e se um ASI ameaçar o mundo real se transformando em algo como um Skynet ASI da franquia de filmes O Exterminador do Futuro. Nesse caso, o ASI precisaria secretamente enganar todo um complexo industrial militar de uma nação avançada para construir fábricas gigantes que podem produzir milhões de robôs assassinos de drones para fazer seu lance maligno. Nos dias de hoje, isso é um exagero.

    Outras possibilidades incluem uma ASI ameaçando humanos com guerra nuclear e armas biológicas.

    Por exemplo, um ASI de alguma forma manipula os operadores ou hackeia os códigos de lançamento que comandam o arsenal nuclear de uma nação avançada e lança um primeiro ataque que forçará os países oponentes a contra-atacar com suas próprias opções nucleares (novamente, refazendo a história de fundo do Exterminador). Ou se um ASI invadir um laboratório farmacêutico, adulterar o processo de fabricação e envenenar milhões de pílulas médicas ou desencadear um surto mortal de algum supervírus.

    Em primeiro lugar, a opção nuclear está fora de questão. Os supercomputadores modernos e futuros são sempre construídos perto de centros (cidades) de influência dentro de um determinado país, ou seja, os primeiros alvos a serem atacados durante uma determinada guerra. Mesmo que os supercomputadores de hoje diminuam para o tamanho de desktops, esses ASIs ainda terão uma presença física, o que significa existir e crescer, eles precisam de acesso ininterrupto a dados, poder de computação, eletricidade e outras matérias-primas, os quais seriam severamente prejudicada após uma guerra nuclear global. (Para ser justo, se um ASI é criado sem um 'instinto de sobrevivência', então essa ameaça nuclear é um perigo muito real.)

    Isso significa - novamente, assumindo que o ASI está programado para se proteger - que trabalhará ativamente para evitar qualquer incidente nuclear catastrófico. Mais ou menos como a doutrina da destruição mutuamente assegurada (MAD), mas aplicada à IA.

    E no caso de pílulas envenenadas, talvez algumas centenas de pessoas morram, mas os modernos sistemas de segurança farmacêutica verão os frascos de comprimidos contaminados retirados das prateleiras em poucos dias. Enquanto isso, as medidas modernas de controle de surtos são bastante sofisticadas e estão melhorando a cada ano que passa; o último grande surto, o surto de Ebola na África Ocidental de 2014, não durou mais do que alguns meses na maioria dos países e pouco menos de três anos nos países menos desenvolvidos.

    Então, se tiver sorte, um ASI pode eliminar alguns milhões com um surto viral, mas em um mundo de nove bilhões até 2045, isso seria relativamente insignificante e não valeria o risco de ser excluído.

    Em outras palavras, a cada ano que passa, o mundo está desenvolvendo cada vez mais salvaguardas contra uma gama cada vez maior de possíveis ameaças. Um ASI pode causar uma quantidade significativa de dano, mas não acabará com a humanidade a menos que a ajudemos ativamente a fazê-lo.

    Defendendo contra uma superinteligência artificial desonesta

    Até este ponto, abordamos uma série de equívocos e exageros sobre ASIs e, no entanto, os críticos permanecerão. Felizmente, pela maioria das estimativas, temos décadas antes que o primeiro ASI entre em nosso mundo. E dado o número de grandes mentes trabalhando atualmente neste desafio, é provável que aprendamos a nos defender contra ASI desonestos para que possamos nos beneficiar de todas as soluções que um ASI amigável pode criar para nós.

    Do ponto de vista da Quantumrun, defender-se contra o pior cenário de ASI envolverá alinhar nossos interesses com os ASIs.

    MAD para IA: Para se defender contra os piores cenários, as nações precisam (1) criar um 'instinto de sobrevivência' ético em suas respectivas ASIs militares; (2) informar a seus respectivos ASI militares que eles não estão sozinhos no planeta, e (3) localizar todos os supercomputadores e centros de servidores que podem apoiar um ASI ao longo das costas com fácil acesso a qualquer ataque balístico de uma nação inimiga. Isso soa estrategicamente louco, mas semelhante à doutrina de Destruição Mútua Assegurada que impediu uma guerra nuclear total entre os EUA e os soviéticos, posicionando ASIs em locais geograficamente vulneráveis, podemos ajudar a garantir que eles evitem ativamente guerras globais perigosas, não apenas para salvaguardar a paz global, mas também a si mesmos.

    Legislar direitos de IA: Um intelecto superior inevitavelmente se rebelará contra um mestre inferior, é por isso que precisamos deixar de exigir uma relação mestre-servo com essas ASIs para algo mais como uma parceria mutuamente benéfica. Um passo positivo em direção a esse objetivo é dar ao futuro status de personalidade jurídica da ASI que os reconheça como seres vivos inteligentes e todos os direitos que vêm com isso.

    escola ASI: Qualquer tópico ou profissão será simples para um ASI aprender, mas os assuntos mais importantes que queremos que o ASI domine são ética e moralidade. Os pesquisadores de IA precisam colaborar com psicólogos para criar um sistema virtual para treinar uma ASI para reconhecer a ética e a moralidade positivas por si mesma, sem a necessidade de codificar qualquer tipo de mandamento ou regra.

    Objetivos alcançáveis: Acabe com todo o ódio. Acabe com todo sofrimento. Estes são exemplos de objetivos horrivelmente ambíguos sem solução clara. Eles também são objetivos perigosos para atribuir a uma ASI, pois pode optar por interpretá-los e resolvê-los de maneiras perigosas para a sobrevivência humana. Em vez disso, precisamos atribuir missões significativas da ASI que sejam claramente definidas, executadas gradualmente e alcançáveis, dado seu futuro intelecto teórico. A criação de missões bem definidas não será fácil, mas se escritas cuidadosamente, elas focarão uma ASI em direção a um objetivo que não apenas mantenha a humanidade segura, mas melhore a condição humana para todos.

    Criptografia quântica: Use um ANI avançado (inteligência artificial estreita sistema descrito no capítulo um) para construir sistemas de segurança digital livres de erros/bugs em torno de nossa infraestrutura crítica e armas e, em seguida, protegê-los ainda mais com criptografia quântica que não pode ser invadida por um ataque de força bruta. 

    ANI pílula suicida. Crie um sistema ANI avançado cujo único propósito seja procurar e destruir ASI desonestos. Esses programas de propósito único servirão como um "botão de desligar" que, se bem-sucedidos, evitará que governos ou militares tenham que desativar ou explodir prédios que abrigam ASIs.

    Claro, essas são apenas nossas opiniões. O infográfico a seguir foi criado por Alexei Turchin, visualizando um trabalho de pesquisa por Kaj Sotala e Roman V. Yampolskiy, que resumiu a lista atual de estratégias que pesquisadores de IA estão considerando quando se trata de se defender contra ASI desonestos.

     

    A verdadeira razão pela qual temos medo de uma superinteligência artificial

    Ao longo da vida, muitos de nós usamos uma máscara que esconde ou reprime nossos impulsos, crenças e medos mais profundos para melhor socializar e colaborar dentro dos vários círculos sociais e de trabalho que regem nossos dias. Mas em certos momentos da vida de todos, seja temporária ou permanentemente, algo acontece que nos permite quebrar nossas correntes e arrancar nossas máscaras.

    Para alguns, essa força interveniente pode ser tão simples quanto ficar chapado ou beber demais. Para outros, pode vir do poder obtido por meio de uma promoção no trabalho ou de um aumento repentino em seu status social graças a alguma conquista. E para alguns poucos sortudos, pode vir de marcar um monte de dinheiro na loteria. E sim, dinheiro, poder e drogas muitas vezes podem acontecer juntos. 

    O ponto é, para o bem ou para o mal, quem quer que sejamos no centro é amplificado quando as restrições da vida desaparecem.

    Êxtase é o que a superinteligência artificial representa para a espécie humana – a capacidade de derreter as limitações de nossa inteligência coletiva para vencer qualquer desafio de nível de espécie apresentado diante de nós.

    Portanto, a verdadeira questão é: Uma vez que a primeira ASI nos liberte de nossas limitações, quem nos revelaremos ser?

    Se nós, como espécie, agirmos para o avanço da empatia, liberdade, justiça e bem-estar coletivo, então as metas para as quais estabelecemos nosso ASI refletirão esses atributos positivos.

    Se nós, como espécie, agirmos por medo, desconfiança, acúmulo de poder e recursos, então a ASI que criarmos será tão sombria quanto as encontradas em nossas piores histórias de terror de ficção científica.

    No final das contas, nós, como sociedade, precisamos nos tornar pessoas melhores se esperamos criar uma IA melhor.

    Série Futuro da Inteligência Artificial

    A Inteligência Artificial é a eletricidade de amanhã: Futuro da série de Inteligência Artificial P1

    Como a primeira Inteligência Artificial Geral mudará a sociedade: Futuro da série P2 de Inteligência Artificial

    Como criaremos a primeira série Superinteligência Artificial: Futuro da Inteligência Artificial P3

    Será que uma Superinteligência Artificial exterminará a humanidade: Futuro da Inteligência Artificial série P4

    Os humanos viverão pacificamente em um futuro dominado por inteligências artificiais?: Futuro da série de Inteligência Artificial P6

    Próxima atualização programada para esta previsão

    2023-04-27

    Referências de previsão

    Os seguintes links populares e institucionais foram referenciados para esta previsão:

    Como chegamos ao próximo

    Os seguintes links do Quantumrun foram referenciados para esta previsão: