Sophia @princesinhamt
Tecnologia

A IA de Alpaca da Stanford revela possíveis problemas com a OpenAI 503z6q

2025 word1
Grupo do Whatsapp Cuiabá

Os pesquisadores treinam um modelo de linguagem da Meta com texto gerado pelo GPT-3.5 da OpenAI por menos de US $ 600 – e alcançam um desempenho semelhante.

Treinar grandes modelos de linguagem é caro, e modelos poderosos continuam sendo o monopólio de grandes empresas de tecnologia – certo?

Talvez não.

Pesquisadores de Stanford usaram 52.000 demonstrações de instruções geradas pelo GPT-3.5 da OpenAI (texto-davinci-003) para ajustar uma variante de sete bilhões de parâmetros do modelo LLaMA recentemente anunciado pela Meta.

O treinamento de instrução é uma das principais técnicas que tornam o GPT-3.5 superior ao modelo GPT-3 original, e os dados de treinamento usados são proprietários do OpenAI.

Embora o RLHF seja fundamental para ajustar modelos como o ChatGPT ou mesmo o GPT-4, os recursos essenciais dos modelos são baseados em seu treinamento original – ou seja, treinamento com instruções também.

Alpaca de Stanford treina com saída OpenAI 2s4z4w

Em seu trabalho, o grupo de Stanford usou as instruções geradas pela IA para treinar a Alpaca 7B, um modelo de linguagem que, segundo os pesquisadores, exibe muitos comportamentos semelhantes ao GPT-3.5. Em um teste cego usando a entrada do Self-Instruct Evaluation Set, ambos os modelos tiveram desempenho comparável, diz a equipe.

A alpaca tem problemas comuns a outros modelos de linguagem, como alucinações, toxicidade e estereótipos. Em particular, as alucinações ocorrem com mais frequência do que no modelo OpenAI.

A equipe está lançando uma demonstração interativa, o conjunto de dados de treinamento e o código de treinamento. Eles também pediram permissão à Meta para liberar o modelo. Com o lançamento, a equipe espera permitir pesquisas sobre modelos de linguagem treinados com instruções. Para evitar o uso indevido, eles incluíram um filtro de conteúdo através da API OpenAI e uma marca d ‘água na demonstração.

O modelo não pode ser utilizado para fins comerciais. Além das preocupações de segurança e da licença não comercial do modelo LLaMA da Meta, a equipe aponta para os termos de uso do OpenAI GPT-3.5, que afirmam que o modelo não pode ser usado para desenvolver modelos de IA que competem com o OpenAI.

O treinamento da Alpaca foi tão barato que a OpenAI tem um problema 2d6l6y

O último ponto é uma indicação de que a OpenAI está ciente de que a saída de seus próprios modelos pode ser usada como uma fonte de dados para possíveis réplicas. Com o vazamento dos modelos LLaMA maiores com até 65 bilhões de parâmetros, é concebível que tais projetos já estejam em andamento – e também possam usar a saída do GPT-4.

Além de seu desempenho impressionante para um modelo tão pequeno, a Alpaca também mostra como o treinamento em IA se tornou ível: a equipe treinou o Alpaca 7B por menos de US $ 600. Modelos maiores serão mais caros, mas o custo esperado deve estar em uma faixa que possa ser facilmente financiada por empresas ou projetos de crowdsourcing.

O pesquisador de alinhamento Eliezer Yudkowsky resume o problema que isso representa para empresas como a OpenAI:“ Se você permitir qualquer o suficientemente amplo ao seu modelo de IA, mesmo por API paga, estará distribuindo suas joias da coroa comercial para concorrentes que podem quase clonar seu modelo sem todo o trabalho árduo que você fez para construir seu próprio conjunto de dados de ajuste fino”.

O que a OpenAI pode fazer sobre isso? Não muito, diz Yudkowsky: “Se você aplicar com sucesso uma restrição contra a comercialização de uma imitação treinada em seu I/O – uma perspectiva legal que nunca foi testada, neste momento – isso significa que os pontos de verificação concorrentes sobem no BitTorrent”.

Você pode experimentar o Alpaca 7B de Stanford gratuitamente.

Fonte: andrelug

Sobre o autor 495os

Avatar de Redação

Redação 4a3fv

Estamos empenhados em estabelecer uma comunidade ativa e solidária que possa impulsionar mudanças positivas na sociedade.