Informação não é conhecimento; IA é a tecnologia mais poderosa da história
O autor israelense Yuval Harari, em Beverly Hills, na Califórnia, em setembro de 2018 - Emily Berl-The New York Times
Em entrevista à Folha sobre seu novo livro que aborda o assunto, autor de 'Sapiens' defende que ferramenta seja regulada como carros e remédios.
O israelense Yuval Noah Harari, um dos autores mais populares da atualidade, alerta para um futuro aterrador em seu novo livro, "Nexus: Uma Breve História das Redes de Informação, da Idade da Pedra à inteligência artificial", cujo lançamento mundial ocorre nesta terça-feira (3).
Segundo ele, a humanidade está pisando no acelerador do desenvolvimento da inteligência artificial, mas não sabe como freá-la.
"A IA é a tecnologia mais poderosa já criada pela humanidade, porque é a primeira que pode tomar decisões: uma bomba atômica não pode decidir quem atacar, nem pode inventar novas bombas ou novas estratégias militares. Uma IA, ao contrário, pode decidir sozinha atacar um alvo específico e pode inventar novas bombas", diz à Folha o historiador, que vendeu 45 milhões de exemplares com "Sapiens", "Homo Deus" e "21 Lições para o Século 21".
Para Harari, o primeiro passo é concordar que "precisamos regular a IA da mesma forma que regulamos produtos, medicamentos e carros". Leia a seguir a entrevista, feita por email.
Por que o sr. decidiu escrever um livro sobre tecnologia e inteligência artificial?
Este não é um livro apenas sobre IA. Ele explora a história das redes de informação desde a Idade da Pedra. A ideia é ter uma perspectiva histórica sobre a revolução da IA estudando o impacto das revoluções de informação anteriores.
Por exemplo, como a invenção do livro levou à Bíblia e ao cristianismo. Como a invenção da imprensa levou a uma onda de teorias da conspiração, caça às bruxas e guerras religiosas na Europa do século 16. E como os soviéticos usaram a tecnologia da informação moderna para criar sua polícia secreta.
O objetivo é entender a interação entre tecnologia e seres humanos. Especialistas em IA acham difícil entender como uma nova tecnologia influenciará a religião, a cultura e a política. Especialistas em computação tendem a ter visões ingênuas sobre a história.
Quando a internet surgiu, os gigantes da tecnologia prometeram que ela espalharia a verdade e a liberdade e levaria à queda de ditadores e ao fortalecimento da democracia. Isso não aconteceu.
Hoje temos a tecnologia de informação mais sofisticada da história, mas as pessoas estão perdendo a capacidade de conversar umas com as outras. Democracias em todo o mundo estão sendo minadas. Um conhecimento da história pode nos ajudar a entender o porquê.
Hoje, há uma quantidade recorde de informações em circulação, e a tecnologia nunca foi tão avançada. Mesmo assim, a humanidade nunca esteve tão próxima do autoextermínio por causa do aquecimento global e das guerras. Os luditas [trabalhadores têxteis que se opunham à introdução de novas máquinas durante a Revolução Industrial] estavam corretos?
Informação não é conhecimento. A maior parte da informação é lixo. Conhecimento é um tipo raro e caro de informação.
Por exemplo, é fácil inventar uma fake news atraente —você simplesmente escreve o que quiser. Mas é difícil escrever uma reportagem verdadeira, porque pesquisar e apurar é caro. E a notícia verdadeira que você produz provavelmente atrairá menos atenção do que a fake news, porque a verdade tende a ser complicada, e as pessoas não gostam de histórias complicadas.
Podemos comparar informação com comida. Há cem anos, a comida era escassa. Então os humanos comiam qualquer coisa que encontrassem, gostavam especialmente de comida com muita gordura e açúcar. Hoje, a comida é abundante, e somos inundados por "comida lixo", artificialmente rica em gordura e açúcar. Se as pessoas comem muito lixo, ficam doentes.
O mesmo vale para a informação, que é o alimento da mente. Estamos inundados por muita informação lixo. A informação lixo é artificialmente cheia de ganância, ódio e medo —coisas que atraem nossa atenção. Toda essa informação lixo deixa nossas mentes e sociedades doentes. Precisamos de uma dieta de informação.
O sr. chama de conceito ingênuo de informação a ideia de que quanto mais informação, melhor, e que as melhores ideias e a verdade prevalecerão naturalmente. Mas também rejeita a ideia de o governo atuar como um Ministério da Verdade. Qual é o meio-termo?
Devemos partir do pressuposto de que todos são falíveis. As corporações são falíveis, assim como o governo. Portanto, nunca devemos dar autoridade absoluta a uma única entidade.
O poder de regular a tecnologia da informação deve ser distribuído entre o governo, as corporações, os tribunais, a mídia, a academia e as ONGs. Isso é complicado, mas a complexidade é uma característica da democracia. A ditadura é simples —uma única pessoa manda em tudo e nunca admite nenhum erro. A democracia é complicada —muitas pessoas conversando e corrigindo os erros uns dos outros.
O primeiro passo crucial, no entanto, é concordar que precisamos regular a tecnologia da informação da mesma forma que regulamos produtos, medicamentos e carros.
Quando uma empresa automobilística decide produzir um novo modelo de carro, ela investe uma parte significativa de seu orçamento em segurança. Se uma empresa automobilística negligencia a segurança, os clientes podem processá-la em busca de indenizações, e o governo pode impedi-la de vender seus carros.
Existem muitas leis que limitam aonde os carros podem ir, quem pode dirigir e a velocidade que podem atingir. Exatamente os mesmos padrões devem ser aplicados aos algoritmos.
Em um ensaio de junho de 2023, o bilionário Marc Andreessen disse que a inteligência artificial não destruirá o mundo; na verdade, pode salvá-lo. Faz sentido?
Andreessen está certo ao dizer que a IA pode melhorar muito nossas vidas. Ela pode criar o melhor sistema de saúde da história e ajudar a prevenir o colapso ecológico. Mas não devemos ignorar suas ameaças.
É a tecnologia mais poderosa já criada pela humanidade porque é a primeira que pode tomar decisões. Uma bomba atômica não pode decidir quem atacar nem pode inventar novas bombas ou estratégias militares. Uma IA, ao contrário, pode decidir sozinha atacar um alvo específico e pode inventar novas bombas, estratégias e até novas IAs.
A coisa mais importante a saber sobre a IA é que ela não é uma ferramenta em nossas mãos —é um agente autônomo, fazendo coisas que não esperávamos. O que acontecerá conosco quando milhões de agentes não humanos começarem a tomar decisões sobre nós e a criar coisas novas —de novos medicamentos a novas armas, de novos textos religiosos a novos tipos de dinheiro?
No livro, o sr. menciona várias vezes o ex-presidente Jair Bolsonaro como exemplo de líder populista que usou a informação como arma. Por que lhe pareceu importante incluí-lo?
Muitos livros sobre a revolução da IA focam demais os Estados Unidos e ignoram o resto do mundo. Mas alguns dos piores efeitos da IA podem ser sentidos em lugares como o Brasil antes dos EUA. Vimos isso anteriormente na história, por exemplo, com a Revolução Industrial.
O senhor fala sobre o perigo de a IA, sem mecanismos de autocorreção, ser usada por líderes autoritários. Qual seria o cenário no Brasil, com um líder autoritário governando com a ajuda da IA?
Um grande perigo é a criação de regimes de vigilância total. Ao longo da história, ditadores quiseram monitorar toda a população 24 horas por dia para garantir que todos estavam obedecendo às suas ordens e ninguém estava resistindo ou mantendo opiniões dissidentes. No entanto, até agora os ditadores não conseguiam fazer isso.
Primeiro, faltavam espiões suficientes. Por exemplo, a ditadura militar no Brasil nos anos 1970 não conseguia seguir 100 milhões de cidadãos brasileiros 24 horas por dia. Isso teria exigido 200 milhões de agentes da polícia secreta (porque até mesmo os agentes do DOI-Codi precisavam dormir às vezes).
Em segundo lugar, a ditadura não tinha analistas suficientes. Se todos os dias os espiões coletassem informações sobre 100 milhões de brasileiros, de onde o regime poderia obter analistas suficientes para processar todas essas informações?
Com a IA, um futuro ditador não precisaria de milhões de agentes humanos para espionar todo mundo. Smartphones, computadores, câmeras, microfones e drones poderiam fazer isso. Nem precisaria de milhões de analistas humanos. A IA poderia processar a enorme quantidade de informações e punir qualquer dissidência.
Isso já está acontecendo em algumas partes do mundo. No Irã, por exemplo, existem leis rígidas que obrigam as mulheres a usarem o hijab sempre que saem de casa. Anteriormente, era difícil fazer cumprir essas leis. Mas o regime iraniano agora usa IA. Mesmo que uma mulher dirija seu próprio carro sem hijab, as câmeras de reconhecimento facial identificam esse crime.
Quais são os mecanismos de autocorreção essenciais para garantir que a IA seja segura?
Precisamos criar instituições que possam identificar rapidamente problemas e reagir a eles. Serão novas instituições regulatórias que atrairão alguns dos maiores talentos e serão financiadas por um imposto sobre os lucros dos gigantes de tecnologia.
Criar apenas uma instituição regulatória será perigoso, porque ela terá poder demais. Precisamos aderir ao princípio democrático da divisão de poder.
Há entusiastas da IA que nos dizem que não precisamos dessas instituições no momento. Regulamentações retardariam o desenvolvimento e talvez dessem vantagem a competidores em outros países. Eles dizem que, no futuro, se descobrirmos que a IA é perigosa, podemos focar nossos esforços na segurança. Mas isso é insano.
Quando você aprende a dirigir um carro, a primeira coisa que ensinam é como brecar. Só depois de saber como usar os freios é que ensinam como apertar o acelerador. Isso também se aplica à IA.
Quanto ao argumento de que investir em segurança daria vantagem a competidores —isso é um absurdo. Se seus concorrentes desenvolverem um carro sem freios, isso significa que você também deve desenvolver um carro tão perigoso?
RAIO-X | Yuval Noah Harari, 48
Nascido em Israel, é professor na Universidade Hebraica em Jerusalém e pesquisador na Universidade de Cambridge. Formado em história militar e medieval na Universidade Hebraica, tem doutorado pela Universidade de Oxford. Autor dos best-sellers mundiais "Sapiens - Uma Breve História da Humanidade", "Homo Deus - Uma Breve História do Amanhã" e "21 Lições para o Século 21", traduzidos para 65 idiomas.
Nexus - Uma Breve História das Redes de Informação, da Idade da Pedra à Inteligência Artificial
- Quando Lançamento em 10/9
- Preço R$ 89,90 (504 págs.); R$ 39,90 (ebook)
- Autoria Yuval Noah Harari
- Editora Companhia das Letras
- Tradução Berilo Vargas e Denise Bottmann (Folha, 3/9/24)