LinkedIn, la piattaforma di networking professionale di proprietà di Microsoft, sta affrontando una class action da parte di alcuni dei suoi stessi membri Premium. Questi utenti sostengono che LinkedIn ha condiviso i loro messaggi privati e altri dati con aziende terze per aiutare a formare modelli di intelligenza artificiale (AI), il tutto senza chiedere il loro permesso. La causa è stata depositata presso un tribunale di San Jose, California, e rappresenta milioni di abbonati LinkedIn Premium.
Tutto è iniziato quando LinkedIn ha apportato modifiche alle sue policy sulla privacy nel 2024. Ad agosto, l'azienda ha introdotto una nuova impostazione che consentiva agli utenti di controllare se i propri dati potevano essere condivisi. Tuttavia, un mese dopo, LinkedIn ha aggiornato nuovamente la sua policy. Questa volta, l’azienda ha affermato che i dati degli utenti potevano essere utilizzati per addestrare i sistemi di intelligenza artificiale. Ciò accadeva anche se gli utenti sceglievano di non condividere i propri dati in futuro. La policy menzionava anche che tutti i dati già utilizzati per l'addestramento dell'intelligenza artificiale non potevano essere rimossi o annullati. Ciò ha irritato molti utenti, che hanno ritenuto di non essere stati adeguatamente informati su come venivano utilizzati i propri dati.
LinkedIn: utenti chiedono risarcimento da 1000 dollari
La causa sostiene che LinkedIn ha violato la fiducia dei suoi utenti Premium condividendo le loro informazioni private senza permesso. Gli utenti chiedono un risarcimento finanziario (1.000 dollari a persona). Inoltre, secondo la causa, questi vogliono che LinkedIn venga ritenuta responsabile per quelle che considerano pratiche sleali. Dal canto suo, LinkedIn in una dichiarazione a Reuters ha affermato: "Queste sono false affermazioni senza fondamento". L'estrazione di dati per addestrare modelli di gen-AI non è una novità e le aziende di AI sono state sottoposte a controlli, comprese cause legali. Un recente deposito in tribunale ha rivelato che Mark Zuckerberg aveva approvato l'uso di LibGen, un set di dati di e-book e articoli piratati per addestrare i suoi modelli di AI Llama. Infine, l’anno scorso, anche le principali società di stampa hanno fatto causa a Microsoft e OpenAI per aver utilizzato i loro dati per addestrare modelli AI senza autorizzazione.