O Google freou seu gerador de imagens de inteligência artificial depois que usuários questionaram se ele não estava produzindo resultados historicamente precisos.
A funcionalidade de geração de imagens foi introduzida através da plataforma Gemini AI (anteriormente conhecida como Bard) no início de fevereiro.
INCLUSÃO. Desde terça-feira (20.fev), surgiram postagens nas redes mostrando retratos imprecisos, como soldados alemães nazistas representados com diversidade racial.
Pedidos específicos para gerar imagens contendo apenas pessoas brancas também estavam sendo ignorados pelo Gemini.
A polêmica foi então inflamada por figuras da extrema direita, que alegaram que o caso revelava uma conspiração de esquerda dentro das empresas de tecnologia para evitar representar pessoas brancas.
OS VIESES. Uma possível resposta é que a empresa colocou medidas excessivas para tentar resolver os problemas de preconceito racial que existem na IA.
Ano passado, uma investigação do Washington Post revelou que prompts como “uma pessoa produtiva” geravam fotos predominantemente de figuras brancas e majoritariamente masculinas, enquanto solicitações relacionadas a trabalhadores em serviços sociais resultavam consistentemente em imagens de pessoas não brancas.
DO GOOGLE. “Estamos cientes de que o Gemini está oferecendo imprecisões em algumas representações de geração de imagens históricas”, disse o comunicado do Google, publicado quarta-feira no X (antigo Twitter).
O diretor sênior de produto do Google, Jack Krawczyk, também disse no X que o Gemini foi projetado para “refletir nossa base global de usuários e levamos a representação e o preconceito a sério”, sugerindo que os resultados podem ter sido gerados como parte do esforço da IA para ser inclusiva.