A Apple foi alvo de um novo processo de direitos autorais após dois autores acusarem a empresa de usar ilegalmente suas obras para treinar seus modelos de inteligência artificial.
O processo, apresentado em um tribunal federal no Norte da Califórnia na sexta-feira, alega que a Apple utilizou cópias piratas de livros de Grady Hendrix e Jennifer Roberson para construir seus modelos de linguagem de grande porte OpenELM sem autorização, crédito ou pagamento.
A ação coletiva proposta adiciona a Apple a uma lista crescente de empresas de tecnologia que enfrentam litígios sobre o uso de material protegido por direitos autorais em conjuntos de dados de treinamento.
“A Apple não tentou pagar esses autores por suas contribuições para esse empreendimento potencialmente lucrativo”, diz a queixa. Hendrix, baseado em Nova York, e Roberson, no Arizona, alegam que suas obras faziam parte de um conjunto de dados de livros pirateados há muito conhecidos por circular em círculos de pesquisa de aprendizado de máquina.
Empresas de IA enfrentam processos de direitos autorais
A ação contra a Apple ocorre em meio a uma série de batalhas legais de alto perfil sobre o uso de material protegido por direitos autorais no desenvolvimento de IA. No mesmo dia, a startup de IA Anthropic disse que pagaria US$ 1,5 bilhões para resolver reivindicações de um grupo de autores que alegaram que ela treinou seu chatbot Claude sem a devida permissão.
Os advogados dos autores descreveram o acordo como a maior recuperação de direitos autorais da história, mesmo que a Anthropic não tenha admitido responsabilidade.
Outros gigantes da tecnologia também enfrentam litígios semelhantes. A Microsoft foi processada em junho por um grupo de escritores que afirmam que suas obras foram usadas sem permissão para treinar seu modelo Megatron. Meta Platforms e OpenAI, apoiada pela Microsoft, também foram acusadas de apropriar-se de obras protegidas por direitos autorais sem licenças.
O que está em jogo para a Apple
Para a Apple, o processo é um revés enquanto a empresa busca expandir suas capacidades de IA após apresentar sua família de modelos OpenELM no início deste ano. Comercializados como alternativas menores e mais eficientes aos sistemas de ponta da OpenAI e Google, os modelos foram projetados para serem integrados em todo o ecossistema de hardware e software da Apple.
Os autores argumentam que a dependência da Apple em obras pirateadas compromete esses esforços e deixa a empresa vulnerável a alegações de enriquecimento ilícito.
Analistas dizem que a Apple pode ser especialmente vulnerável porque se posicionou como uma fornecedora de tecnologia centrada no usuário e com foco em privacidade. Se os tribunais concluírem que seus modelos de IA foram treinados com dados roubados, o impacto reputacional pode ser ainda mais significativo do que qualquer penalidade financeira.
Os processos também destacam a questão não resolvida de como a lei de direitos autorais se aplica ao treinamento de IA. Defensores do “uso justo” argumentam que a exposição ao texto é semelhante à leitura humana, fornecendo contexto para gerar novo material em vez de reproduzir os originais.
Opositores argumentam que a ingestão em massa de obras protegidas por direitos autorais sem licença priva os criadores de uma compensação justa.
O acordo recorde da Anthropic pode mudar o equilíbrio. Ao concordar com um pagamento massivo, mesmo sem admitir responsabilidade, a empresa sinalizou os riscos de lutar contra esses casos nos tribunais. Agora, a Apple enfrenta a perspectiva de uma exposição financeira semelhante se seu caso for a julgamento.
Suas notícias de cripto merecem atenção - KEY Difference Wire coloca você em mais de 250 sites de destaque