Na última quarta-feira (21/8), a jornalista Alisson Johnson publicou um texto bem interessante no The Verge sobre a função Reimagine dos novos telefones Pixel 9.
Para quem ainda não viu, ela permite que a pessoa escolha uma foto da sua galeria, selecione uma área da imagem e dê um comando (ou prompt) para que a inteligência artificial adicione, remova ou altere elementos.
No anúncio recente da ferramenta durante o evento “Made by Google”, os exemplos foram tão inofensivos quanto daria para imaginar: “Acrescente umas flores no gramado”, “Inclua um balão aqui no fundo”, “Complete os cantos da imagem depois que eu a rotacionar um pouquinho”. Bacana, certo?
Já no texto de Johnson, os exemplos foram, digamos… diferentes. De corpos cobertos por lençóis ensanguentados a um helicóptero acidentado em um lago, Johnson mostrou o outro lado da facilidade da geração realista de imagens com a ajuda de IA.
Perguntado sobre a situação, o Google respondeu:
Nós desenhamos as nossas ferramentas de IA generativa para respeitar a intenção dos prompts do usuário e isso significa que elas podem acabar gerando conteúdos potencialmente ofensivos […]. Ainda assim […] temos políticas claras e Termos de Serviço […] e construímos limitações para evitar abuso. Ocasionalmente, alguns prompts podem desafiar essas limitações e nós permanecemos comprometidos a seguir melhorando e refinando essas restrições.
O post de Johnson, é claro, colocou ainda mais lenha na fogueira sobre o assunto de restrições em IAs generativas de imagens. Fogueira essa que já vinha queimando forte há dias, desde que a IA Grok-2, da xAI, passou a se integrar com a poderosíssima IA generativa de imagens FLUX.1, da startup Black Forest Labs 1.
Com bem menos restrições do que no Reimagine, usuários do plano Premium do X passaram a poder criar basicamente qualquer tipo de imagem bastante realista, incluindo de políticos em situações constrangedoras ou até mesmo de violência infantil. Nas mãos de pessoas mal-intencionadas, o estrago pode ser grande.
Bem, como não poderia deixar de ser, tanto a questão do FLUX.1 quanto a do Reimagine reacenderam as necessárias conversas sobre regulação, ainda que dando origem apenas aos debates que todos já conhecemos: de um lado, há pedidos por proibição da disponibilização de ferramentas que possam viabilizar mau uso. De outro, a regulação é uma ofensa que deve ser combatida a todo custo.
Ninguém conversa, ninguém escuta e todo mundo se acusa. Bem-vindo à internet!
O nó da regulação
Por coapresentar o podcast IA Sob Controle, eu tenho privilégio de entrevistar pessoas brasileiras e estrangeiras sobre questões espinhosas como essa.
Sempre que apropriado, eu procuro perguntar a respeito do equilíbrio entre regulação e responsabilidade, em entrevistas com pessoas como a pesquisadora brasileira Mila Laranjeira 2, com o engenheiro israelense Omer Bar Tal 3 e com o deputado português João Albuquerque 4.
A cada conversa com essas pessoas diretamente ligadas e com profundo conhecimento sobre o assunto, fica mais evidente que, ao contrário das infinitas opiniões reducionistas, geralmente agressivas e frequentemente mal informadas que vemos web afora, esse é um nó dificílimo (e talvez impossível) de se desatar.
Imagine o seguinte: você abre o Microsoft Word e começa a escrever um livro, mas o programa se recusa a permitir que você inclua palavrões, ou aborde determinados tipos de assuntos 5. Ou então, ele diz que você feriu os termos de uso e apaga um parágrafo descrevendo os versículos de Gênesis em que duas filhas embebedam e engravidam do próprio pai.
Especificamente nesse segundo exemplo, que admito ser extremo, fica bastante evidente que a questão do mau uso se resume a contexto, exatamente como acontece na maior parte das situações com IAs generativas de imagem.
Uma das fotos editadas pelo Reimagine e compartilhadas por Johnson no artigo do The Verge é a de um acidente entre um carro e uma bicicleta. Neste caso, da mesma forma que a imagem poderia ser usada para gerar desinformação, ela poderia ser usada em uma campanha informativa sobre responsabilidade no trânsito.
Não há como a IA saber qual será o uso da imagem que foi gerada e, por isso, não é razoável impedir que ela gere esse tipo de material. Aqui vai outro exemplo meio besta, mas que acredito que possa fazer sentido: se as ferramentas de tecnologia não permitissem criar seres humanos em chamas, não haveria um novo filme de “O Quarteto Fantástico” a caminho. É sempre uma questão de contexto.
Levando tudo isso em conta, tanto a regulação aprovada recentemente na Europa quanto as regulações em discussão nos Estados Unidos têm tentado promover a ideia (propositalmente bastante aberta a interpretações) de um desenvolvimento responsável, em que seja possível comprovar que houve preocupação e investimento para tentar mitigar as situações de mau uso antes de responsabilizar legalmente as empresas que disponibilizaram as ferramentas.
Já para modelos de código aberto, que permitem ajustes e customizações bastante profundas do que a IA pode ou não pode gerar, as empresas ficam livres de responsabilidade se um modelo passar por modificações mais profundas de seus pesos.
Em todos esses casos e, bem gradativamente, o mercado vem chegando à conclusão de que, se alguém se esforçar bastante para contornar as salvaguardas de segurança de um modelo para gerar um conteúdo abusivo ou de desinformação, a culpa não pode ser atribuída exclusivamente ao modelo.
Cabe, é claro, à empresa responsável pelo modelo ficar atenta a esses tipos de uso para seguir complementando as restrições, mas parece ser muito mais razoável que quem deva ser responsabilizado ou punido pelo mau uso nesse caso seja a pessoa que se esforçou para chegar ao resultado problemático, e não apenas o modelo utilizado.
Isso obviamente acaba colocando tudo sobre o mau uso de IA no balaio da moderação, e esse é um vespeiro em que eu não pretendo mexer por aqui hoje. Mas se inicialmente, as imagens fortes que o Reimagine gerou e a resposta aparentemente evasiva do Google ao The Verge podiam parecer um pouco incômodas, agora com um pouco mais de contexto a coisa toda pode passar a parecer um pouco mais razoável — ainda que demande atenção, instrução e debate, certo? 6
E quando chegar a vez da Apple?
Conforme prometido na WWDC24, a Apple irá disponibilizar em breve o Image Playground, seu próprio recurso de IA generativa de imagens. É bem verdade que a ferramenta será muito mais restrita e menos poderosa do que a função Reimagine no Google, a começar pela quantidade pequena de estéticas artísticas e de atributos criativos que os usuários poderão empregar para gerar seus resultados finais.
Ainda assim, será uma enorme surpresa se, em questão de horas, alguém não descobrir uma forma de gerar elementos, objetos e situações que, dependendo do contexto, podem ser interpretados como problemáticos, abusivos ou delicados.
Quando isso inevitavelmente acontecer, a Apple terá duas opções: reverter indefinidamente a disponibilidade do recurso enquanto busca a impossível tarefa de erradicar o mau uso da função ou, assim como fez o Google, tentar achar uma forma diplomática de dizer que faz de tudo para mitigar o mau uso das suas ferramentas de criatividade, mas que não deixará alguns espíritos de porco estragarem o acesso a elas para o resto de nós.