O bilionário Elon Musk e mais de 2.600 líderes e pesquisadores do setor de tecnologia se uniram para assinar uma carta aberta pedindo uma pausa temporária no desenvolvimento da inteligência artificial, temendo o que eles acreditam ser “riscos profundos para a sociedade e a humanidade" ligados à tecnologia.
Além do dono da Tesla e o Twitter, o cofundador da Apple, Steve Wozniak, e uma série de CEOs e pesquisadores estão entre os signatários da carta. O documento foi publicado em 22 de março pela Future of Life Institute (FOLI, na sigla em inglês), uma instituição de pesquisa sediada nos Estados Unidos.
O instituto convocou todas as empresas de inteligência artificial a “pausar imediatamente” o treinamento de sistemas de IA mais poderosos que o GPT-4 por pelo menos seis meses, sob o argumento de que “a competição de inteligência com os humanos pode representar riscos profundos para a sociedade e a humanidade”.
“A IA avançada pode representar uma mudança profunda na história da vida na Terra e deve ser planejada e gerenciada com cuidado e recursos proporcionais. Infelizmente, esse nível de planejamento e gestão não está sendo adotado”, defendeu o instituto.
Lançado em 14 de março, o GPT-4 é a mais recente versão do chat baseado em inteligência artificial da OpenAI. Até o momento, ele passou em alguns dos mais rigorosos exames de ensino médio e direito dos Estados Unidos, com pontuações que o colocam entre os melhores classificados. Segundo a empresa, a nova versão é dez vezes mais avançada que a versão original do ChatGPT.
Para a FOLI, há uma “corrida fora de controle” entre as empresas de inteligência artificial para desenvolver a IA "mais poderosa", cujo resultado “ninguém – nem mesmo seus criadores – pode entender, prever ou controlar de forma confiável”. A carta alega que as máquinas poderiam potencialmente inundar os canais de informação com “propaganda e falsidade” e também levanta a possibilidade de que as máquinas “automatizem” todas as oportunidades de emprego.
A instituição levou essas preocupações um passo adiante, sugerindo que o desenvolvimento dos produtos dessas empresas podem levar a humanidade a uma ameaça existencial: “Devemos desenvolver mentes não humanas que possam eventualmente nos superar em número, ser mais espertas, tornando as nossas mentes obsoletas e nos substituir? Devemos arriscar perder o controle sobre a nossa civilização?”.
“Tais decisões não devem ser delegadas a líderes tecnológicos não eleitos” pelo público, acrescentou a carta. O instituto também concordou com uma declaração recente do fundador da OpenAI, Sam Altman, de que uma revisão independente é necessária antes do treinamento de futuros sistemas de inteligência artificial.