SÃO PAULO, SP (FOLHAPRESS) – Pedindo licença e perdão a Caetano Veloso, o português Hugo Leal mandou uma ferramenta de inteligência artificial gerar uma canção. Não para ganhar dinheiro ou se aventurar no mundo da música, mas para provar um ponto. Leal é pesquisador no Centro Minderoo para Tecnologia e Democracia, da Universidade de Cambridge.
O comando foi “uma música estilo bossa nova, inspirada pelo trabalho de Caetano Veloso, com letra em português comparando o roubo de propriedade intelectual com colonialismo”, e pede um tom melancólico, suave, lento, caótico.
O resultado foram os versos: “Caminhos tortos de história,/ Lágrimas no chão, memória/ O roubo sutil, colonial/ Um eco do passado, um sinal”.
“Não é sequer uma imitação barata porque treinar e manter estes modelos [de IA] é muito dispendioso. É uma imitação bem cara. E qual o proveito para a cultura global, a cultura brasileira ou o grande Caetano Veloso? Nenhum. É uma indignidade.”
Ele se refere ao processo de mineração de dados por ferramentas de IA, que muitas vezes usam sem pagar produtos culturais protegidos por direito autoral para treinar seus modelos de linguagem.
Conforme a Folha de S.Paulo mostrou, pelo menos três empresas de inteligência artificial americanas usaram livros de Clarice Lispector, Chico Buarque, Paulo Coelho e outros autores brasileiros para treinar seus modelos de inteligência artificial sem pedir autorização, sem pagar por isso e apelando a cópias piratas disponíveis na internet.
As empresas são a Meta, que usou as obras para treinar o modelo LLaMa; a Anthropic, que fez o mesmo no desenvolvimento do chatbot Claude; e a Microsoft, no treino do Megatron-Turing. As três companhias se valeram de uma base de dados chamada Books3, que reúne quase 200 mil cópias ilegais de livros.
“É uma forma perversa de neocolonialismo e pilhagem cultural que tende a colocar países do Sul Global na base da cadeia de fornecimento da inteligência artificial”, diz. “O Brasil é uma potência cultural. Não vai ser, creio, a curto e médio prazo, uma potência tecnológica no domínio da inteligência artificial. Ora, submeter o setor da cultura à inteligência artificial é um erro crasso que o Brasil poderia cometer e creio que não vai cometer.”
O Brasil tem atualmente duas opções, diz Leal. Pode entrar nesta corrida desenvolvimentista e contentar-se com uma posição secundária e subserviente como ponto na cadeia de abastecimento de inteligência artificial, fornecendo trabalho, energia, centros de dados e transformando seus produtos culturais em matéria-prima barata.
Mas há uma segunda opção. “O Brasil como gigante cultural está numa posição, eu acho, única”, diz. Para ele, o país tem condições políticas para estar na vanguarda da regulação da inteligência artificial. Segundo o pesquisador, as demandas por regulação têm a ver com assimetrias de informação e de poder.
São dois os pontos principais. O primeiro é a exigência da transparência por parte das empresas sobre quais dados foram utilizados em seus processos de treinamento das ferramentas de IA generativa. O segundo é a garantia de remuneração justa aos artistas e detentores de direitos autorais.
“Nós presumimos que estes modelos foram treinados, que todo o acervo digital da bossa nova, da MPB, foi sugado, porque não temos a certeza absoluta. Mas pelo ‘output’, podemos imaginar qual é o ‘input'”, diz o professor, que se refere à transparência dos modelos de IA generativa como uma “caixa-preta”. “É vital que nós possamos saber o que está lá dentro, mas a transparência não chega.”
É claro que a IA também apresenta oportunidades positivas para o setor cultural. As ferramentas podem cooperar com o setor cultural para melhorar processos, seja na criação de efeitos especiais no cinema ou na edição na música. “No entanto, o caminho que está a ser forjado por governos, a reboque das empresas de IA, não é o da cooperação, mas sim o da destruição e substituição”, afirma o pesquisador.
Ainda há uma janela que permite a discussão e regulação, mas uma vez passado este período, não tem volta, acrescenta ele. “É muito difícil regular o que foi desregulado e depois transformar o paradigma econômico. A história não anda para trás.”
Na União Europeia, se uma IA é considerada de risco sistêmico elevado, fica sujeita a obrigações mais rigorosas. Geralmente são relacionadas a segurança e privacidade. Mas Leal questiona como é feita essa hierarquização de riscos. “O que é um risco sistêmico elevado? A cultura é vital para certos países, inclusive o Brasil.”
Historicamente, as sociedades reagem com pânico à mudança tecnológica. Foi assim com o rádio, com a televisão e com a internet, diz Leal, acrescentando que, em geral, não costuma ficar do lado do pânico. “No caso da inteligência artificial, no entanto, eu não estou muito otimista, precisamente pelo atraso na regulação”, afirma o pesquisador.
“Essas plataformas usam, reusam e abusam da música que existe para treinar e produzir e reproduzir temas, mas sem pagar os dados de treino. Sem pagar ao artista”, ele afirma. “Perdem os artistas, os criadores e o público, porque a qualidade não é a mesma. Perdem os Estados, perde a cultura.”