Secondo Anthropic oltre 24.000 account su Claude avrebbero trasferito conversazioni a DeepSeek, Moonshot e MiniMax, sollevando rischi per sicurezza e sorveglianza
Si intensifica la battaglia tra Stati Uniti e Cina nel campo dell'intelligenza artificiale. L'americana Anthropic, una delle aziende più in vista del settore, ha accusato tre rivali cinesi di aver creato più di 24.000 account falsi su Claude, il suo chatbot, per ottenere risposte che migliorassero i propri modelli.
Il tutto tramite la cosiddetta tecnica di "distillazione", dove un chatbot "insegnante", in questo caso Claude, trasferisce informazioni a uno "studente", i chatbot di DeepSeek, Moonshot e MiniMax, sotto forma di grandi quantità di dati ottenuti dalle conversazioni generative.
Il sito specializzato Engadget sottolinea come la tecnica non sia illecita ma può essere utilizzata "come scorciatoia per sviluppare modelli di intelligenza artificiale più avanzati, eludendo alcune misure di sicurezza". Tra queste, la censura delle conversazioni di natura sessuale o esplicita per gli utenti minorenni e i blocchi in caso di chat su temi delicati, come il suicidio e la creazione di armi.
"I laboratori stranieri che distillano modelli americani possono immettere queste capacità non protette nei sistemi militari, di intelligence e di sorveglianza", scrive sul proprio blog Anthropic, "consentendo ai governi autoritari di impiegare l'intelligenza artificiale di frontiera per operazioni informatiche offensive, campagne di disinformazione e sorveglianza di massa".
L'accusa di Anthropic giunge in un momento in cui le esportazioni di chip americani verso la Cina sono ancora oggetto di accesi dibattiti. Il mese scorso, l'amministrazione Trump ha autorizzato aziende statunitensi, come Nvidia, a esportare chip di intelligenza artificiale in Cina, dopo i blocchi in vigore dal 2024.