Está na moda, à medida que a inteligência artificial se torna mais sofisticada, comparar sistemas de IA com armas nucleares. Essas analogias vieram da mídia tradicional como Bloomberg, de microcelebridades de nicho da Internet e do destruidor de IA mais famoso do mundo, Eliezer Yudkowsky. Mas esta comparação não resiste a um exame minucioso.
A Teoria dos Jogos – o estudo de como os atores racionais interagem – mostra-nos por que a IA não é a ameaça que parece ser. A IA é mais parecida com uma arma do que com uma arma nuclear.
As armas nucleares são diferentes de todas as outras armas devido ao seu poder destrutivo. Se duas nações tiverem uma troca nuclear, ambos os lados perderão: os mísseis estarão no ar, sem qualquer esperança de desactivar o armamento inimigo a tempo de evitar um ataque. Por esta razão, a Teoria dos Jogos sugere uma política de “Destruição Mútua Assegurada”: qualquer actor racional evitará o uso de armas nucleares porque o seu próprio lado será destruído no processo. Assim, a segurança nuclear depende da centralização das capacidades nucleares num pequeno número de intervenientes racionais.
No entanto, consideremos as armas de fogo dentro deste mesmo quadro: o melhor contra-ataque a um atirador em massa é outra pessoa com uma arma, seja um civil ou um agente da lei. Ao contrário das armas nucleares, o risco de violência armada pode ser mitigado com a descentralização . Centralize as armas de fogo nas mãos do Estado e teremos uma sociedade de tirania; centralize-os nas mãos de criminosos, proibindo a propriedade para os cumpridores da lei, e teremos uma sociedade de pilhagem. Esses dois não são muito diferentes, exceto pela estética. Uma sociedade livre e segura, por outro lado, é o resultado de uma ampla dispersão de armas. As armas nas mãos das pessoas comuns funcionam como uma força de compensação contra aqueles que usariam armas para tirar direitos ou bens pessoais.
A inteligência, que pode ser usada tanto para o bem como para o mal, funciona segundo um princípio semelhante ao da posse de armas. Tal como acontece com as armas de fogo, o acesso assimétrico à inteligência pode levar a situações perigosas. É por isso que os doentes mentais são protegidos por tutelas (quando não estão sofrendo abusos – #FreeBritney). É por isso que temos leis de idade de consentimento e criminalizamos o abuso financeiro de idosos. Uma situação em que a capacidade mental é quase igual, por outro lado, é mais segura. É por esta razão que a Constituição dos EUA garante o direito a um advogado: a lei é um domínio intelectual e os arguidos sem formação jurídica estão em desvantagem significativa. O que realmente está sendo fornecido aqui é a mente do advogado , com o conhecimento e a experiência necessários para nivelar o campo de atuação.
A inteligência artificial funciona da mesma maneira. Um modelo de IA pode ter acesso a informações e recursos muito maiores do que uma pessoa individual – como a diferença entre um promotor e um réu. Mas, tal como um advogado intervém para equalizar o campo de jogo, outro sistema de IA poderia igualmente desempenhar este papel equalizador.
Assim como as armas e os advogados, é necessário um amplo acesso à inteligência artificial para evitar uma assimetria de recursos e informações – e o perigoso cenário anticoncorrencial que surgiria da centralização.
Modelos de código aberto como Llama2 e StableLM nivelam o campo de jogo, ou chegam perto, permitindo que qualquer pessoa com hardware suficiente controle seu próprio modelo localmente. A promoção do desenvolvimento contínuo destes modelos, evitando a regulamentação governamental e aumentando o financiamento sem fins lucrativos da investigação em IA de código aberto, garantirá que as condições de concorrência se mantêm tão equitativas quanto possível. Isto permitirá que as capacidades de IA do público permaneçam próximas das das grandes corporações. A regulamentação, por outro lado, centralizaria os recursos da IA nas mãos de algumas grandes empresas, eliminando assim a concorrência – a única força compensatória que poderia controlar a IA centralizada em primeiro lugar.
Não é nenhuma surpresa que as pessoas que pressionam pela regulamentação da IA tendam a ser também defensores do controlo de armas – ambas as posições baseiam-se no mesmo raciocínio falho. Em 13 de setembro, Chuck Schumer organizou uma cúpula de IA que incluiu líderes das maiores empresas de IA. O que quer que resulte dessa cimeira poderá ser bom para essas empresas e para Chuck Schumer, que rouba armas, mas não para o povo americano. Tentarão assustar as pessoas para que apoiem regulamentações, cujos proponentes provavelmente usarão a mesma comparação cansada com as armas nucleares. Não devemos cair nessa.
Dylan Dean estudou engenharia elétrica e de computação na Montana State University e no Lake Washington Institute of Technology e é um defensor da democratização das tecnologias emergentes.