Em 2023, a OpenAI se comprometeu com o governo dos EUA a testar rigorosamente novas versões de IA para evitar danos potenciais – isso incluía impedir que a IA ajudasse na criação de armas biológicas ou facilitasse ataques cibernéticos. Mas a OpenAI pode ter apressado os testes de segurança de seu novo modelo GPT-4 Omni para cumprir um prazo de lançamento.
Funcionários da empresa levantaram preocupações sobre a prioridade da empresa em relação à segurança e a eficácia das políticas de autorregulação no setor de tecnologia.
Um grupo de funcionários-denunciantes da OpenAI apresentou uma queixa à Comissão de Valores Mobiliários dos EUA argumentando que a empresa impediu sua equipe de alertar sobre os riscos que sua tecnologia IA poderia representar. A carta de sete páginas – que diz que os funcionários tinham acordos de confidencialidade, renúncia a direitos federais de compensação de denunciantes, entre outras restrições – foi parar no The Washingtong Post. Pela cláusula, se os funcionários levantassem preocupações sobre a empresa aos reguladores federais, enfrentariam penalidades.
Os funcionários-denunciantes afirmam em sua carta (leia aqui) que “dados os riscos associados ao avanço da IA, há uma necessidade urgente de garantir que os funcionários que trabalham nessa tecnologia entendam que podem apresentar reclamações ou endereçar preocupações às autoridades reguladoras federais ou de aplicação da lei”.
“Acreditamos que o debate rigoroso sobre essa tecnologia é essencial e já fizemos mudanças importantes em nosso processo de saída para remover termos de não depreciação”, disse a porta-voz da OpenAI, Hannah Wong.
A Microsoft abriu mão de seu assento no conselho da OpenAI.