Nossa Odisseia de IA, por Joseph S. Nye

Share on facebook
Share on twitter
Share on linkedin
Share on facebook
Share on twitter
Share on linkedin
Share on whatsapp

Henry A. Kissinger, Eric Schmidt e Daniel Huttenlocher, The Age of AI: And Our Human Future (A Era da Inteligência Artificial: E Nosso Futuro Humano), da Editora Little, Brown and Company, 2021.

CAMBRIDGE – Um ex estadista, um CEO aposentado da Big Tech e um cientista da computação se encontram em um bar. Do que eles falam? Inteligência artificial, é claro, porque todo mundo está falando a respeito dela – ou com ela, seja seu nome Alexa, Siri ou qualquer outro. Não precisamos esperar por um futuro de ficção científica; a era da IA ​​já chegou para nós. O aprendizado de máquina, em particular, está causando um poderoso efeito em nossas vidas e afetará intensamente nosso futuro também.

Essa é a mensagem deste novo e fascinante livro do ex-secretário de Estado dos EUA Henry A. Kissinger, do ex-CEO do Google Eric Schmidt e do reitor do MIT, Daniel Huttenlocher. E ela vem com um aviso: a IA desafiará a primazia da razão humana que existe desde o início do Iluminismo.

As máquinas podem realmente pensar? São inteligentes? E o que esses termos significam? Em 1950, o renomado matemático britânico Alan Turing sugeriu que evitássemos esses profundos enigmas filosóficos julgando o desempenho: se não podemos distinguir o desempenho de uma máquina de um humano, devemos rotulá-la de “inteligente”. A maioria dos primeiros programas de computador produziu soluções rígidas e estáticas que falharam nesse “teste de Turing”, e o campo da IA ​​continuou a definhar ao longo da década de 1980.

Entretanto, um avanço ocorreu na década de 1990 com uma nova abordagem que permitiu às máquinas aprender por conta própria, em vez de serem guiadas apenas por códigos derivados de percepções destiladas por humanos. Ao contrário dos algoritmos clássicos, que consistem em etapas para produzir resultados precisos, os algoritmos de aprendizado de máquina consistem em etapas para melhorar resultados imprecisos. O campo moderno do aprendizado de máquina – de programas que aprendem por meio da experiência – havia nascido.

A técnica de camadas de algoritmos de aprendizado de máquina em redes neurais (inspirados na estrutura do cérebro humano) foi inicialmente limitada por uma falta de capacidade de computação. Mas isso mudou nos últimos anos. Em 2017, o AlphaZero, um programa de IA desenvolvido pela DeepMind do Google, derrotou o Stockfish, o programa de xadrez mais poderoso do mundo. O notável não foi que um programa de computador prevaleceu sobre outro programa de computador, mas que ele aprendeu sozinho a fazê-lo. Seus criadores forneceram-lhe as regras do xadrez e instruíram-no a desenvolver uma estratégia vencedora. Depois de apenas quatro horas de aprendizagem jogando contra si mesmo, o programa emergiu como o campeão mundial de xadrez, vencendo Stockfish 28 vezes sem perder uma partida sequer (foram 72 empates).

O jogo do AlphaZero é informado por sua capacidade de reconhecer padrões em enormes conjuntos de possibilidades que as mentes humanas não podem perceber, processar ou empregar. Desde então, métodos semelhantes de aprendizado de máquina levaram a IA, além de derrotar os especialistas humanos em xadrez, a descobrir estratégias de xadrez inteiramente novas. Como os autores apontam, isso leva a IA além do teste de Turing do desempenho indistinguível da inteligência humana a incluir desempenho que excede aquele dos humanos.

Política Algorítmica

As redes neurais generativas também podem criar novas imagens ou textos. Os autores citam o GPT-3 da OpenAI como uma das IAs generativas mais notáveis ​​da atualidade. Em 2019, a empresa desenvolveu um modelo de linguagem que se auto treina consumindo livremente textos disponíveis na internet. Com poucas palavras, ela pode extrapolar novas frases e parágrafos detectando padrões em elementos sequenciais. É capaz de compor textos novos e originais que passam pelo teste de Turing de exibir um comportamento inteligente indistinguível daquele de um ser humano.

Eu sei disso por experiência própria. Depois de inserir algumas palavras, o sistema vasculhou a internet e em menos de um minuto produziu uma notícia falsa plausível a meu respeito. Eu sabia que era falsa, mas não me importo muito. Suponha que a história fosse sobre um líder político durante uma grande eleição. O que acontece com a democracia quando um usuário comum da Internet pode liberar bots de IA generativos para inundar o discurso político nos últimos dias antes das pessoas votarem?

A democracia já está sofrendo com a polarização política, problema exacerbado por algoritmos da mídia social que solicitam “cliques” (e publicidade) ao oferecer aos usuários visões cada vez mais radicais (“envolventes”). Notícias falsas não são um problema novo, mas sua amplificação rápida, barata e generalizada por algoritmos de IA com certeza o é. Deve haver direito à liberdade de expressão, mas não há direito à livre amplificação.

Essas questões fundamentais, argumentam os autores, estão surgindo à medida que as plataformas globais de rede como Google, Twitter e Facebook empregam IA para agregar e filtrar mais informações do que seus usuários jamais conseguiriam. Mas essa filtragem leva à segregação dos usuários, criando câmaras de eco social que fomentam a discórdia entre os grupos. O que uma pessoa supõe ser um reflexo preciso da realidade torna-se bastante diferente da realidade que outras pessoas ou grupos veem, reforçando e aprofundando a polarização. A IA está decidindo cada vez mais o que é importante e o que é verdade, e os resultados não são encorajadores para a saúde da democracia.

Decifrando novos códigos

Obviamente, a IA também oferece enormes benefícios potenciais para a humanidade. Os algoritmos da IA podem ler os resultados de uma mamografia com maior confiabilidade do que os técnicos humanos. (Isso levanta um problema interessante para os médicos que decidem ignorar a recomendação da máquina: eles serão processados ​​por negligência?)

Os autores citam o caso da halicina, um novo antibiótico descoberto em 2020 quando pesquisadores do MIT encarregaram uma IA de modelar milhões de compostos em dias – cálculo que excede em muito a capacidade humana – para explorar métodos anteriormente desconhecidos e inexplicados de matar bactérias. Os pesquisadores notaram que sem a IA, a halicina teria sido proibitivamente cara ou impossível de ser descoberta por meio da experimentação tradicional. Como dizem os autores, a promessa da IA ​​é profunda: traduzir idiomas, detectar doenças e modelar as mudanças climáticas são apenas alguns exemplos do que a tecnologia pode fazer.

Os autores não gastam muito tempo com o bicho-papão da IAG – inteligência artificial geral – ou  o software capaz de executar qualquer tarefa intelectual, incluindo relacionar tarefas e conceitos entre disciplinas. Qualquer que seja o futuro de longo prazo da IAG, já temos problemas suficientes para lidar com nossa IA de aprendizado de máquina generativa que já existe. Ela pode tirar conclusões, fazer previsões e tomar decisões, mas não tem autoconsciência ou capacidade de refletir sobre seu papel no mundo. Não tem intenção, motivação, moralidade ou emoção. Em outras palavras, não equivale a um ser humano.

Mas, apesar dos limites da IA ​​existente, não deveríamos subestimar os profundos efeitos que ela está causando em nosso mundo. Nas palavras dos autores:

“Não reconhecendo as muitas conveniências modernas já fornecidas pela IA, lentamente, quase passivamente, passamos a contar com a tecnologia sem registrar o fato de nossa dependência ou suas implicações. Na vida diária, a IA é nossa parceira, ajudando-nos a tomar decisões sobre o que comer, o que vestir, o que acreditar, onde ir e como chegar lá … Mas essas e outras possibilidades estão sendo adquiridas – em grande parte sem alarde – alterando a relação humana com a razão e a realidade. ”

A Corrida da IA

A IA já está influenciando a política mundial. Como a IA é uma tecnologia habilitadora geral, sua distribuição desigual tende a afetar o equilíbrio global de poder. Neste estágio, embora o aprendizado de máquina seja global, os Estados Unidos e a China são as principais potências em IA. Das sete maiores empresas globais do setor, três são americanas e quatro chinesas.

O presidente chinês Xi Jinping anunciou a meta de fazer da China o país líder em IA até 2030. Kai-Fu Lee, da Sinovation Ventures, em Pequim, observa que, com sua imensa população, a maior internet do mundo, vastos recursos de dados e pouca preocupação com privacidade, a China está bem posicionada para desenvolver sua IA. Além disso, Lee argumenta que ter acesso a um enorme mercado e muitos engenheiros pode ser mais importante do que ter universidades e cientistas líderes mundiais.

Mas a qualidade dos dados é tão importante quanto a quantidade, assim como a qualidade dos chips e algoritmos. Nesse aspecto, os EUA podem estar à frente. Kissinger, Schmidt e Huttenlocher argumentam que, com os requisitos de dados e computação que limitam o desenvolvimento de IA mais avançada, desenvolver métodos de treinamento que usem menos dados e menos poder do computador é uma fronteira crucial.

Armas e IA

Além da competição econômica, a IA terá um grande impacto na competição militar e na guerra. Nas palavras dos autores, “a introdução da lógica não humana nos sistemas militares transformará a estratégia”. Quando os sistemas de IA com aprendizado generativo de máquina são implantados uns contra os outros, pode se tornar difícil para os humanos antecipar os  resultados de sua interação. Isso colocará bonificações para velocidade, amplitude de efeitos e resistência.

Assim, a IA tornará os conflitos mais intensos e imprevisíveis. A superfície de ataque das sociedades em rede digital será abrangente demais para que os operadores humanos a defendam manualmente. Os sistemas de armas letais autônomas que selecionam e engajam os alvos reduzirão a capacidade de efetiva intervenção humana. Embora possamos nos esforçar para ter um humano “dentro do circuito” ou “no circuito”, os incentivos para a intuição e a escalada prematura serão fortes. O gerenciamento de crises se tornará mais difícil.

Esses riscos deveriam encorajar os governos a desenvolver consultas e acordos de controle de armas; mas ainda não está claro como seria o controle de armas da IA. Ao contrário das armas nucleares e convencionais – que são grandes, visíveis, desajeitadas e contáveis – enxames de drones habilitados para IA ou torpedos são mais difíceis de se verificar e os algoritmos que os guiam são ainda mais inatingíveis.

Será difícil restringir o desenvolvimento das capacidades da IA em geral, dada a importância e onipresença da tecnologia para uso civil. No entanto, ainda pode ser possível fazer algo sobre as capacidades militares de seleção de alvos. Os EUA já distinguem entre armas habilitadas para IA e armas autônomas de IA. As primeiras são mais precisas e letais, mas ainda sob controle humano; as últimas podem tomar decisões letais sem interferência humana. Os EUA afirmam que não terá esse segundo tipo.

Além disso, as Nações Unidas têm estudado a questão de um novo tratado internacional para banir essas armas. Mas todos os países concordarão? Como a conformidade será conferida? Dada a capacidade de aprendizado da IA ​​generativa, as armas evoluirão de maneiras que escapam às restrições? De qualquer modo, os esforços para moderar o impulso em direção à automaticidade serão importantes. E, é claro, a automaticidade não deveria ser permitida em qualquer lugar perto de sistemas de armas nucleares.

O atraso na liderança

Apesar de toda a lucidez e sabedoria deste bem escrito livro, gostaria que os autores nos tivessem levado mais longe, sugerindo soluções para os problemas de como os humanos podem controlar a IA tanto em casa quanto no exterior. Eles apontam que a IA é frágil porque carece de autoconsciência. Não é senciente e não sabe o que não sabe. Apesar de todo seu brilhantismo em superar os humanos em alguns empreendimentos, ela não consegue identificar e evitar erros que seriam óbvios para qualquer criança. O romancista ganhador do Nobel, Kazuo Ishiguro, dramatiza isso brilhantemente em seu romance Klara e o Sol.

Kissinger, Schmidt e Huttenlocher observam que a incapacidade da IA ​​de verificar erros de outra forma claros por conta própria ressalta a importância de se desenvolver testes que permitam aos humanos identificar limites, revisar cursos de ação propostos e criar resiliência nos sistemas em caso de falha da IA. As sociedades deveriam permitir que a IA fosse empregada em sistemas somente depois que seus criadores demonstrarem sua confiabilidade por meio de processos de teste. “O desenvolvimento de certificação profissional, monitoramento de conformidade e programas de supervisão para IA – e a experiência em auditoria que sua execução demandará – tornar-se-á um projeto social crucial”, escrevem os autores.          

Para tanto, o rigor do regime regulamentar deveria depender do risco da atividade. IAs que dirigem carros deveriam ser submetidas a maior supervisão do que IAs para plataformas de entretenimento como o TikTok.

Os autores concluem com uma proposta para a formação de uma comissão nacional composta por figuras respeitadas dos mais altos níveis de governo, dos negócios e acadêmicos. Teria a dupla função de garantir que o país permaneça intelectual e estrategicamente competitivo em IA, ao mesmo tempo que aumenta a consciência global das implicações culturais da tecnologia. Sábias palavras, mas eu gostaria que eles tivessem nos falado mais sobre como alcançar esses importantes objetivos. Nesse ínterim, eles produziram uma introdução maravilhosa que precisa ser lida sobre questões que serão críticas para o futuro da humanidade e nos forçarão a reconsiderar a própria natureza da humanidade.

Tradução de Anna Maria Dalle Luche, Brazil

Foto: Reprodução/ 2001 – Uma Odisseia no Espaço

Joseph S. Nye, Jr., ex-secretário assistente da defesa para segurança internacional dos Estados Unidos, ex-presidente do Conselho Nacional de Inteligência dos Estados Unidos e ex-sub-secretário de Estado para assistência em segurança, ciência e tecnologia, é professor na Universidade de Harvard e autor do livro Do Morals Matter? Presidents and Foreign Policy from FDR to Trump (A Moral Importa? Presidentes e Política Externa de FDR a Trump).

Direitos Autorais: Project Syndicate, 2021.
www.project-syndicate.org

O seu apoio é muito importante

Faça uma assinatura. Participe desse projeto. Ajude e manter e aperfeiçoar o portal América Latina

Leia também