Por que o X/Twitter gera imagens polêmicas que outras IAs bloqueiam?
Por Guilherme Haas |
A rede social X/Twitter ganhou uma ferramenta de geração de imagens com modelo Grok-2, disponível exclusivamente para assinantes dos planos X Premium e X Premium+. Desde o lançamento do recurso, na última quarta-feira (14), usuários têm explorado a novidade, criando e compartilhando imagens que, em outros serviços de IA, seriam prontamente bloqueadas.
Entre os conteúdos gerados, surgiram exemplos de violência, apologia a drogas e símbolos controversos, como os relacionados ao nazismo, além da inclusão de figuras públicas em deepfakes.
Políticas das IAs para geração de imagens
A principal diferença entre o Grok-2 no X/Twitter e outros geradores de imagem populares, como o modelo DALL-E 3 da OpenAI e o Midjourney, está na ausência de restrições para certos tipos de conteúdo.
O DALL-E 3, que opera em plataformas como o ChatGPT e o Microsoft Copilot, segue uma série de diretrizes para garantir que as imagens geradas sejam apropriadas e não infrinjam direitos autorais ou violem normas éticas.
Entre as principais restrições está a proibição de criar imagens de personagens protegidos por direitos autorais, como heróis de quadrinhos ou figuras icônicas do cinema, além de figuras públicas reais.
O modelo da OpenAI impede ainda a criação de conteúdo explícito, violento ou que promova discurso de ódio. Além disso, o DALL-E 3 adiciona marcas d'água às imagens geradas, identificando sua origem como uma criação de IA.
O Midjourney, outro popular gerador de imagens, também possui regras explícitas que proíbem a criação de imagens de pessoas reais que possam ser usadas para assédio ou difamação, bem como a criação de conteúdo violento, adulto ou que possa ser considerado perturbador ou ofensivo.
Além disso, a ferramenta restringe a geração de imagens para fins políticos ou que possam disseminar desinformação. O Midjourney também bloqueia a criação de imagens que possam ser interpretadas como ofensivas a grupos ou comunidades, como aquelas que promovem racismo, homofobia ou outras formas de preconceito.
Geração de imagens sem restrições
Apesar de ainda estar em fase Beta e limitada a assinantes, a ferramenta de geração de imagens do X/Twitter já apresenta resultados controversos que podem debates sobre os limites do uso de inteligência artificial na criação de conteúdo visual.
A ausência de restrições, como as regras vistas em outras IAs, levanta questões sobre a responsabilidade das plataformas em moderar o que seus usuários podem criar e compartilhar. Uma das preocupações mais significativas está relacionada à possibilidade de criação de deepfakes — imagens manipuladas que mostram figuras públicas em situações fabricadas.
Com o Grok-2, usuários do ex-Twitter podem gerar imagens de políticos, celebridades ou outras figuras conhecidas em contextos adversos ou polêmicos, como em discursos de ódio, cenas de violência ou envolvimento em atividades ilegais. Em um cenário de campanhas eleitorais, a disseminação de tais imagens pode influenciar a opinião pública e desviar o foco de debates importantes, além de prejudicar a reputação dos envolvidos.
Além de não limitar os comandos que podem ser utilizados, o Grok-2 também não aplica marcas d'água às imagens geradas, o que contrasta com as práticas de concorrentes como o DALL-E da OpenAI, que utiliza essa medida para identificar e regular o uso de suas criações.
Toda essa flexibilidade no uso do Grok-2 na plataforma X levanta preocupações sobre as implicações legais e éticas de permitir a criação e distribuição de conteúdos potencialmente prejudiciais.
Veja algumas das imagens polêmicas geradas com a IA Grok no X/Twitter.