A moda dos avatares criados com a ajuda da inteligência artificial por aplicativos de imagens, como o Lensa, voltou com força e, com ela, antigas discussões.
Muito crítica, uma dessas discussões pertence a uma esfera muito maior do que estilização e diz respeito à mudança nos traços do rosto e no tom de pele dos usuários.
A Gabriela Moura chamou atenção para algo interessante: como o algoritmo do Lensa lê como belo o traço eurocêntrico, os negros que estão usando o aplicativo ficam com traços de brancos. Horroroso e racista. https://t.co/MG7w2yn3Ll
— Lígia Teixeira (@LigiaTex) December 2, 2022
Algoritmos racistas não é um tema de hoje. Há pelo menos dois anos a cientista da computação Nina da Hora, especialista em ética no uso de IA e que está no grupo de transição do governo, tuíta e dá aula aberta sobre o tema.
Mas o problema persiste, deixando evidente que a discussão sobre a existência de algoritmos racistas é algo que precisa ganhar mais destaque dentro do universo das IAs.
A brincadeirinha que até então tá sendo bem legal e bem recebida pela comunidade publicitária e geral por ser uma tendência, não pode ser só observada com um olhar de apreciação, mas também de criticidade. A gente tá falando e consumindo um aplicativo de uma plataforma +
— Vitória ⭐ (@breathsaturn) November 30, 2022
O que significa que não existe neutralidade algorítmica. Se os traços da imagem feita por automação da Aí afinaram quer dizer que o aprendizado dessa máquina é racista, é pautado em uma lógica da branquitude como reforço de lógicas de poder
— Vitória ⭐ (@breathsaturn) November 30, 2022
Abaixo, deixo algumas leituras:
E não é apenas em aplicativos geradores de imagens. A questão dos algoritmos racistas está presente inclusive nos departamentos de polícia dos EUA.
Ativistas e especialistas alertam para o uso de inteligência artificial pela polícia e denunciam a "pseudociência" e o racismo sistêmico codificado nos algoritmos preditivos usados por dezenas de departamentos de polícia nos EUA. https://t.co/qoho2CZqJh
— Antonio Luiz M. C. Costa (@ALuizCosta) December 5, 2022
É sempre importante lembrar que por trás do algoritmo, existe uma pessoa que o programa, e todas as questões relativas ao comportamento moral humano podem aflorar e gerar viéses nessa construção digital.
Mais problemas
Aplicativos como o Lensa utilizam algoritmos que receberão um input, que pode ser fotos suas, por exemplo, como base para transformá-las em imagens estilizadas. Não tem muita inteligência por trás desse passo-a-passo, apesar de nos referirmos a muitos desses algoritmos como inteligência artificial (IA).
A lot of people argue that AI art isn't theft as it isn't copying the original images but referencing them like a person.
— Craig Richardson (@CraigTheDev) November 29, 2022
I'm a senior games coder & studied machine learning for my master's degree. This is entirely incorrect for reasons that are fundamental to programming & AI. https://t.co/ANBsm44uaW
Quando fazemos um upload em um aplicativo como o Lensa, para criar avatares estilizados, estamos entregando dados para esse aplicativo e quem o gerencia. No caso do Lensa, pagando essa entrega. E aqui temos um segundo problema.
Usando o tweet to imaginago de exemplo;
— 🛸PIBI🛸 COMISSOES ABERTAS📌 (@GoodforWho_) November 30, 2022
Você paga pra fazer uma imagem de qualidade duvidosa numa IA que além de salvar teus dados, usa (majoritariamente SEM PERMISSÃO) a arte de outros artistas, e enquanto isso o mercado de venda de arte personalizada tá aí a disposição https://t.co/EHiaQhvA22
Artistas se manifestaram sobre a venda desses avatares, especialmente sobre as mudanças que a popularização de ferramentas como essa podem gerar para a sociedade.
Muda o perfil do profissional nas agências e na mídia. Do mesmo jeito que o cara do nanquim e do aerógrafo foi trocado pelo ilustrador digital e bancos de imagem. Questão de custo e produtividade. Vem aí o designer bom de IA. Mas artista autoral, em qualquer meio, segue na luta. https://t.co/HTekVHu9xT
— Maurício Ricardo (@MauricioRicardo) December 1, 2022
Outros internautas comentaram que é possível fazer as mesmas aplicações, porém de forma gratuita.
Uma dica: não paguem por aplicativos de geração de imagem IA e utilizem soluções open source. A tecnologia Stable Diffusion é gratuita e qualquer um consegue gerar imagens usando Google Colab. pic.twitter.com/fcpJwVpJxr
— lucas (@scalon_) December 3, 2022
Resta, porém, a incerteza em relação ao que será feito dos dados que estão sendo disponibilizados – como e até quando seriam armazenados, entre outros pontos sensíveis. Falta transparência e maior conscientização em relação a isso.
13/ Not just this but early research indicates that LAION has scraped data from business websites such as Shopify (36,469,372), Pinterest (30,908,667, Deviant Art ( 1,435,184 ), heck even HOME AWAY(472,132).https://t.co/1vFPaAHYXv
— Karla Ortiz 🐀 (@kortizart) November 18, 2022
Diogo Cortiz, professor da PUC-SP, traz o exemplo do Spotify que, recentemente, disponibilizou para seus usuários suas preferências no ano de 2022.
Ficamos felizes em saber que o Spotify sabe mais sobre o nosso comportamento e preferências do que nós mesmo. Até compartilhamos nosso resumão.
— Diogo Cortiz (@DiogoCortiz) November 30, 2022
Estamos hipnotizados pelo fetiche tecnológico. 😏
Todas essas questões fazem parte da mesma discussão: estamos preparados para e conhecemos todas as consequências ao compartilhar indiscriminadamente nossas informações?