Imagens pornográficas falsas geradas por inteligência artificial da cantora Taylor Swift viralizaram nas redes sociais na semana passada. A Microsoft corrigiu hoje uma “vulnerabilidade” no Copilot, o assistente virtual do Bing, que permitia a criação desse tipo de imagem.
NO TWITTER. Um post feito no X/Twitter com os deepnudes alcançou 47 milhões de visualizações. O Twitter/X bloqueou a pesquisa pelo nome da cantora e removeu vários posts com deepnudes não consensuais. As imagens estão atualmente circulando no 4chan e no Telegram.
Em comunicado, o X disse que tinha uma política de tolerância zero em relação ao conteúdo. A rede perdeu a maioria de seus moderadores desde que Elon Musk comprou a empresa em 2022 e agora depende de terceirizados, conforme um documento de transparência entregue à Comissão da União Europeia.
MODELOS. A Microsoft introduziu novas políticas no Designer, sua ferramenta de geração de imagens, após descobrir que ela foi utilizada para criar deepnudes de Taylor Swift e de outras celebridades. Proibições técnicas internas já existiam mas os usuários conseguiram contornar as restrições.
CASA BRANCA. A assessora da Presidência dos Estados Unidos comentou sobre o assunto na sexta-feira (26.jan) e disse que deveria “haver legislação do Congresso para enfrentar a questão das imagens criadas com inteligência artificial e o uso indevido dessa tecnologia”.
RESPONSABILIDADE. O CEO da Microsoft, Satya Nadella, afirmou em uma entrevista que a empresa precisa “agir rápido” para combater a criação de deepnudes.
“Volto ao que acho que é nossa responsabilidade, que são todas as barreiras que precisamos colocar em torno da tecnologia para que haja conteúdo mais seguro que está sendo produzido”, disse ele.
Via 404media, NBC News e New York Times (todos em inglês)