Menu
Mundo

Gigantes americanas da IA ??se unem para buscar autorregulação

O “Frontier Model Forum” terá a responsabilidade de promover o “desenvolvimento responsável” dos modelos de IA mais sofisticados

Redação Jornal de Brasília

26/07/2023 15h35

Foto: Fabrice COFFRINI / AFP

Google, Microsoft, Anthropic e OpenAI, quatro das empresas americanas que lideram o cenário da Inteligência Artificial (IA) de última geração, anunciam nesta quarta-feira (26) a criação de um novo órgão profissional para combater os riscos associados a esta tecnologia.

O “Frontier Model Forum” terá a responsabilidade de promover o “desenvolvimento responsável” dos modelos de IA mais sofisticados e “minimizar os riscos potenciais”, de acordo com um comunicado à imprensa.

Assim, os membros se comprometem a compartilhar boas práticas entre si e com legisladores, investigadores e associações, para que esses sistemas sejam menos perigosos.

A implantação rápida da IA ??generativa, por meio de plataformas como ChatGPT (OpenAI), Bing (Microsoft) ou Bard (Google), está gerando preocupação entre autoridades e a sociedade civil.

A União Europeia (UE) está a finalizar um projeto de regulação desta tecnologia que deve impor obrigações às empresas do setor, como transparência com os utilizadores ou controlo humano sobre as máquinas.

Já nos Estados Unidos, as políticas estressantes com o Congresso impedem qualquer esforço neste campo.

Esta é uma das razões pelas quais a Casa Branca pede que as partes interessadas garantam a segurança de seus produtos, em nome de seu “dever moral”, afirmou a vice-presidente americana, Kamala Harris, no início de maio.

Na semana passada, o governo de Joe Biden garantiu os “compromissos” da Amazon, Anthropic, Google, Inflection, Meta, Microsoft e OpenAI para defender “três princípios” no desenvolvimento de IA: segurança, proteção e confiança.

Supõe-se que estas empresas devem testar seus programas antecipadamente, combater ataques cibernéticos e fraudes e encontrar maneiras de sinalizar que o conteúdo foi gerado por IA, para que seja claramente autenticado como tal.

Os dirigentes dessas companhias também não negam os riscos. Em junho, Sam Altman, diretor da OpenAI, e Demis Hassabis, presidente da DeepMind (Google), exortaram a luta contra “os riscos de extinção” da humanidade “ligada à IA”.

Durante uma audiência no Congresso, Altman endossou a ideia cada vez mais popular de criar uma agência internacional carregada da regulação da inteligência artificial, como as que existem em outros campos.

Enquanto isso, a OpenAI está trabalhando em uma IA chamada “geral”, com habilidades cognitivas semelhantes aos humanos.

Em uma sociedade de 6 de julho, a empresa abordou que tem como foco os “modelos de fronteira” da IA, “modelos fundamentais altamente sofisticados que poderiam adquirir recursos perigosos suficientes para oferecer sérios riscos à segurança pública”.

A gigante americana ainda alerta que esses recursos perigosos podem “surgir inesperadamente” e que “é realmente difícil impedir que um modelo aperfeiçoado seja mal utilizado”.

© Agence France-Presse

    Você também pode gostar

    Assine nossa newsletter e
    mantenha-se bem informado