Cover photo

Geração 3.0 #2

“Inteligência artificial, desmistificada”

Bem-vindo ao Geração 3.0!

Eu sou Toni Seldr. Estou tão feliz que você está aqui. Toda semana vou desmistificar os últimos avanços da IA e desmitificar o hype. Nesta semana, quero falar com você sobre algumas das consequências imprevistas que podem advir de uma das áreas mais quentes da IA: a geração de texto para imagem.

Os modelos de IA de conversão de texto em imagem são muito divertidos. Digite qualquer prompt de texto aleatório e eles gerarão uma imagem nesse sentido. Às vezes, os resultados são realmente bobos. Mas, cada vez mais, eles são impressionantes e podem passar por arte de alta qualidade desenhada por um ser humano.

Como exemplo, veja essa história sobre um artista polonês chamado Greg Rutkowski, que pinta paisagens fantásticas (veja um exemplo de seu trabalho abaixo) e que se tornou um sucesso repentino neste novo mundo.

Graças ao seu estilo distinto, Rutkowski é agora um dos prompts mais usados no gerador de arte por AI, de código aberto, Stable Diffusion, que foi lançado no final do ano passado - muito mais popular do que alguns dos artistas mais famosos do mundo, como Picasso.

Mas ele não está feliz com isso. Ele acha que isso pode ameaçar seu sustento - e ele nunca teve a opção de aceitar ou não que seu trabalho fosse usado dessa maneira.

A história é mais um exemplo de desenvolvedores de IA correndo para lançar algo legal sem pensar nos humanos que serão afetados por isso.

O Stable Diffusion é gratuito para qualquer um usar, fornecendo um ótimo recurso para desenvolvedores de IA que desejam usar um modelo poderoso para criar produtos. Mas, como esses programas de código aberto são construídos extraindo imagens da Internet, muitas vezes sem permissão e atribuição adequada aos artistas, eles levantam questões complicadas sobre ética, direitos autorais e segurança.

Artistas como Rutkowski já tiveram o suficiente. Ainda é cedo, mas uma coalizão crescente de artistas está descobrindo como lidar com o problema. No futuro, podemos ver o setor de arte mudando para modelos de assinatura ou pay-per-play, como o usado nas indústrias de cinema e música.

E não são apenas os artistas: todos devemos nos preocupar com o que está incluído nos conjuntos de dados de treinamento dos modelos de IA, especialmente porque essas tecnologias se tornam uma parte mais crucial da infraestrutura da Internet.

Em um artigo publicado no ano passado, os pesquisadores de IA Abeba Birhane, Vinay Uday Prabhu e Emmanuel Kahembwe analisaram um conjunto de dados menor semelhante ao usado para construir o Stable Diffusion. Suas descobertas são angustiantes. Como os dados são extraídos da internet, e a internet é um lugar horrível, o conjunto de dados está repleto de imagens explícitas de estupro, pornografia, estereótipos malignos e calúnias racistas e étnicas.

Um site chamado Have I Been Trained permite que as pessoas pesquisem imagens usadas para treinar o último lote de modelos populares de arte de IA. Mesmo termos de pesquisa inocentes obtêm muitos resultados perturbadores. O banco de dados está repleto de pornografia. Muita pornografia. É um pensamento deprimente que a única coisa que a IA parece associar à palavra “asiática” são mulheres nuas do leste asiático.

Nem todo mundo vê isso como um problema para o setor de IA consertar. Emad Mostaque, fundador da Stability.AI, que construiu a Stable Diffusion, disse no Twitter que considerava o debate ético em torno desses modelos uma “tolice paternalista que não confia nas pessoas ou na sociedade”.

Mas há uma grande questão de segurança. Modelos gratuitos de código aberto, como Stable Diffusion e o modelo de linguagem grande BLOOM, fornecem aos atores mal-intencionados ferramentas para gerar conteúdo prejudicial em escala com recursos mínimos, argumenta Abhishek Gupta, fundador do Montreal AI Ethics Institute e especialista em IA responsável do Boston Consulting Group .

A escala absoluta do caos que esses sistemas possibilitam limitará a eficácia dos controles tradicionais, como limitar quantas imagens as pessoas podem gerar e restringir a geração de conteúdo duvidoso, diz Gupta. Pense em deepfakes ou desinformação sobre esteróides. Quando um poderoso sistema de IA “se torna selvagem”, diz Gupta, “isso pode causar um trauma real … por exemplo, criando conteúdo censurável à semelhança de [alguém]”.

Não podemos colocar o gato de volta na bolsa, então realmente devemos pensar em como lidar com esses modelos de IA na natureza, diz Gupta. Isso inclui monitorar como os sistemas de IA são usados após serem lançados e pensar em controles que “podem minimizar os danos mesmo nos piores cenários”.


Deeper Learning

Não há Praça da Paz Celestial na nova IA chinesa de criação de imagens

Zeyi Yang escreveu este artigo sobre o novo sistema de IA da empresa de tecnologia chinesa Baidu, chamado ERNIE-ViLG, que permite que as pessoas gerem imagens que capturam a especificidade cultural da China. Ele também cria uma arte de anime melhor do que o DALL-E 2 ou outros AIs de criação de imagens ocidentais.

No entanto, também se recusa a mostrar às pessoas resultados sobre temas politicamente delicados, como a Praça da Paz Celestial, local de protestos sangrentos em 1989 contra o governo chinês.

TL;DR: “Quando uma demonstração do software foi lançada no final de agosto, os usuários rapidamente descobriram que certas palavras – tanto menções explícitas de nomes de líderes políticos quanto palavras que são potencialmente controversas apenas em contextos políticos – eram rotuladas como 'sensíveis' e impedido de gerar qualquer resultado. O sofisticado sistema de censura online da China, ao que parece, estendeu-se à última tendência em IA.”

Cujos valores: Giada Pistilli, principal especialista em ética da startup de IA Hugging Face, diz que a dificuldade de identificar uma linha clara entre censura e moderação é resultado de diferenças entre culturas e regimes legais. “Quando se trata de símbolos religiosos, na França nada é permitido em público, e essa é a expressão de secularismo deles”, diz Pistilli. “Quando você vai para os EUA, o secularismo significa que tudo, como todo símbolo religioso, é permitido.”

À medida que a IA amadurece, precisamos ter conversas contínuas sobre as relações de poder e as prioridades sociais que sustentam seu desenvolvimento. Precisamos fazer escolhas difíceis. Estamos bem em usar sistemas chineses de IA, que foram censurados dessa maneira? Ou com outro modelo de IA que foi treinado para concluir que mulheres asiáticas são objetos sexuais e pessoas de cor são membros de gangues?

O desenvolvimento da IA acontece em uma velocidade vertiginosa. Parece que há um novo avanço a cada poucos meses, e os pesquisadores estão se esforçando para publicar artigos antes de sua competição. Freqüentemente, quando falo com desenvolvedores de IA, essas considerações éticas parecem ser uma reflexão tardia, se é que eles pensaram sobre elas. Mas, querendo ou não, deveriam - a reação que vimos contra empresas como a Clearview AI deve funcionar como um aviso de que agir rápido e quebrar as coisas não funciona.


Bits and Bytes

OpenAI revela seu “roteiro para inteligência artificial geral”. A OpenAI quer nos lembrar que tem um objetivo mais elevado do que construir chatbots. A startup espera criar uma “inteligência geral artificial”, a tão esperada ideia de um computador com inteligência de nível humano. TL;DR: A OpenAI diz que será cada vez mais cautelosa com a criação e implantação de seus modelos de IA para minimizar os danos. (OpenAI)

A Meta lançou um novo modelo de linguagem AI. Enquanto outras empresas de tecnologia estão cada vez mais relutantes em compartilhar seu desenvolvimento de IA, a Meta está se tornando cada vez mais uma exceção. A empresa lançou um modelo de linguagem AI chamado LLaMA e permitirá que os pesquisadores brinquem com ele gratuitamente. A Meta afirma que o modelo tem um desempenho melhor do que o GPT-3, o antecessor do ChatGPT. (The Verge)

Imagens criadas por IA não podem obter proteção de direitos autorais nos EUA. Em uma das primeiras decisões sobre direitos autorais e imagens de IA, o escritório de direitos autorais dos EUA decidiu que as imagens em uma história em quadrinhos gerada por Midjourney não poderiam receber proteção de direitos autorais. No entanto, os trechos do romance que o autor escreveu e organizou têm direitos autorais. (Reuters)

China restringe acesso ao ChatGPT. Enquanto as empresas chinesas estão correndo para criar um concorrente do ChatGPT, o governo chinês exigiu que suas empresas de tecnologia removessem soluções alternativas, como VPNs que as pessoas usam para acessar o ChatGPT. (The Guardian)

Um controverso aplicativo de rastreamento de crimes está tentando se refazer recrutando idosos asiáticos. O Citizen, um aplicativo controverso que permite aos usuários denunciar e seguir notificações de crimes próximos, está cortejando membros da comunidade asiático-americana e das ilhas do Pacífico da área da baía de São Francisco. Essa recepção positiva pode parecer estranha para um aplicativo que há muito é criticado por ampliar a paranóia em torno do crime e ajudar os residentes brancos a praticar o controle racial. (MIT Technology Review)
 

É isso de mim. Obrigado por se juntar a mim nesta primeira edição e espero vê-lo novamente na próxima semana!

Toni

#inteligenciaartificial#ia