
Esta semana, o Google lançou uma família de modelos de IA abertos, Gemma 3, que rapidamente conquistou elogios por sua impressionante eficiência. Mas como vários desenvolvedores lamentaram no X, a licença do Gemma 3 torna o uso comercial dos modelos uma proposição arriscada.
\nNão é um problema único do Gemma 3. Empresas como a Meta também aplicam termos de licenciamento personalizados e não padrão a seus modelos disponíveis publicamente, e os termos apresentam desafios legais para as empresas. Algumas empresas, especialmente operações menores, temem que o Google e outros possam "puxar o tapete" de seus negócios ao afirmar as cláusulas mais onerosas.
\n'A licença restritiva e inconsistente de modelos de IA chamados 'abertos' está criando uma incerteza significativa, especialmente para a adoção comercial,' disse Nick Vidal, chefe da comunidade da Open Source Initiative, uma instituição de longa data que visa definir e 'sustentar' todas as coisas de código aberto, ao TechCrunch. 'Embora esses modelos sejam comercializados como abertos, os termos reais impõem vários obstáculos legais e práticos que desencorajam as empresas de integrá-los em seus produtos ou serviços.'
\nDesenvolvedores de modelos abertos têm suas razões para lançar modelos sob licenças proprietárias em oposição a opções padrão da indústria como Apache e MIT. A startup de IA Cohere, por exemplo, deixou claro seu objetivo de apoiar trabalhos científicos - mas não comerciais - em cima de seus modelos.
\nMas as licenças do Gemma e do Llama da Meta em particular têm restrições que limitam as formas como as empresas podem usar os modelos sem temer retaliação legal.
\nA Meta, por exemplo, proíbe os desenvolvedores de usar o 'output ou resultados' dos modelos do Llama 3 para melhorar qualquer modelo que não seja o Llama 3 ou 'trabalhos derivados'. Também impede que empresas com mais de 700 milhões de usuários ativos mensais implantem modelos do Llama sem primeiro obter uma licença especial adicional.
\nA licença do Gemma é geralmente menos onerosa. Mas ela concede ao Google o direito de 'restringir (remotamente ou de outra forma) o uso' do Gemma que o Google acredita estar em violação da política de uso proibido da empresa ou 'leis e regulamentos aplicáveis'.
\nEsses termos não se aplicam apenas aos modelos originais do Llama e do Gemma. Modelos baseados no Llama ou Gemma também devem aderir às licenças do Llama e do Gemma, respectivamente. No caso do Gemma, isso inclui modelos treinados em dados sintéticos gerados pelo Gemma.
\nFlorian Brand, assistente de pesquisa no Centro Alemão de Pesquisa em Inteligência Artificial, acredita que - apesar do que os executivos de gigantes da tecnologia gostariam que você acreditasse - licenças como as do Gemma e do Llama 'não podem razoavelmente ser chamadas de 'código aberto'.'
\n'A maioria das empresas tem um conjunto de licenças aprovadas, como Apache 2.0, então qualquer licença personalizada é muita dor de cabeça e dinheiro,' disse Brand ao TechCrunch. 'Pequenas empresas sem equipes jurídicas ou dinheiro para advogados vão aderir a modelos com licenças padrão.'
\nBrand observou que desenvolvedores de modelos de IA com licenças personalizadas, como o Google, ainda não têm aplicado agressivamente seus termos. No entanto, a ameaça muitas vezes é suficiente para deter a adoção, acrescentou.
\n'Essas restrições têm um impacto no ecossistema de IA - até em pesquisadores de IA como eu,' disse Brand.
\nHan-Chung Lee, diretor de machine learning da Moody's, concorda que licenças personalizadas como as anexadas ao Gemma e ao Llama tornam os modelos 'não utilizáveis' em muitos cenários comerciais. O mesmo pensa Eric Tramel, cientista aplicado da startup de IA Gretel.
\n'Licenças específicas de modelo fazem exceções específicas para derivativos e destilação de modelo, o que causa preocupação sobre revogações,' disse Tramel. 'Imagine uma empresa que está especificamente produzindo ajustes finos de modelo para seus clientes. Que licença um ajuste fino de dados do Gemma do Llama deveria ter? Qual seria o impacto para todos os seus clientes downstream?'
\nO cenário que os implantadores mais temem, disse Tramel, é que os modelos são uma espécie de cavalo de Troia.
\n'Uma fundição de modelos pode lançar modelos [abertos], esperar para ver quais casos de negócios se desenvolvem usando esses modelos, e depois forçar o caminho para verticais de sucesso por extorsão ou guerras jurídicas,' disse. 'Por exemplo, o Gemma 3, pelo que parece, parece ser um lançamento sólido - e um que poderia ter um amplo impacto. Mas o mercado não pode adotá-lo por causa de sua estrutura de licença. Portanto, as empresas provavelmente vão ficar com modelos Apache 2.0 talvez mais fracos e menos confiáveis.'
\nPara deixar claro, certos modelos alcançaram uma ampla distribuição apesar de suas licenças restritivas. O Llama, por exemplo, foi baixado centenas de milhões de vezes e integrado em produtos de grandes corporações, incluindo o Spotify.
\nMas eles poderiam ser ainda mais bem-sucedidos se fossem licenciados de forma permissiva, de acordo com Yacine Jernite, chefe de machine learning e sociedade da startup de IA Hugging Face. Jernite pediu aos provedores como o Google para migrarem para estruturas de licenciamento abertas e 'colaborarem mais diretamente' com os usuários em termos amplamente aceitos.
\n'Dada a falta de consenso sobre esses termos e o fato de que muitas das premissas subjacentes ainda não foram testadas nos tribunais, tudo isso serve principalmente como uma declaração de intenção desses atores,' disse Jernite. '[Mas se certas cláusulas] forem interpretadas muito amplamente, muitos bons trabalhos se encontrarão em terreno legal incerto, o que é especialmente assustador para organizações que constroem produtos comerciais bem-sucedidos.'
\nVidal disse que há uma necessidade urgente de empresas de modelos de IA que possam integrar, modificar e compartilhar livremente sem temer mudanças repentinas de licença ou ambiguidade legal.
\n'O atual cenário de licenciamento de modelos de IA está cheio de confusão, termos restritivos e reivindicações enganosas de abertura,' disse Vidal. 'Em vez de redefinir 'aberto' para atender aos interesses corporativos, a indústria de IA deveria se alinhar com os princípios estabelecidos do código aberto para criar um ecossistema verdadeiramente aberto.'