Mio adattamento del testo nel NYT:
I Chatbot IA vogliono le vostre cartelle cliniche. Procedete con cautela - NYT - 12 Marzo 2026
Seguendo i passi di rivali come Amazon e OpenAI, Microsoft sta aggiornando il suo assistente basato su intelligenza artificiale per monitorare la salute degli utenti. Ci sono benefici e rischi da considerare.
Negli ultimi anni, l'industria tecnologica ha convinto le persone che i chatbot IA migliorano proporzionalmente ai dati forniti. Il passo successivo è spingere gli utenti a condividere le informazioni più sensibili: le cartelle cliniche. Microsoft ha presentato uno strumento che permette a Copilot di aggregare dati da vari fornitori sanitari e dispositivi indossabili (come l'Apple Watch) per offrire una panoramica generale sulla salute dell'utente.
Tuttavia, medici ed esperti di privacy avvertono che, sebbene ciò possa aiutare a orientarsi in un sistema sanitario complesso e costoso, la centralizzazione di dati così sensibili espone a gravi rischi di attacchi informatici e sorveglianza legale. Inoltre, i chatbot non sono soggetti alle rigide leggi HIPAA sulla privacy sanitaria che vincolano i medici. Resta infine il dubbio sull'affidabilità: studi dimostrano che le
IA possono ancora fornire diagnosi errate o ignorare emergenze gravi, rischiando di causare ansia inutile o, al contrario, sottovalutare sintomi critici.
Punti Principali
- Aggregazione dei dati: Microsoft (seguendo l'esempio di Amazon, OpenAI e Anthropic) sta integrando le cartelle cliniche con i dati dei dispositivi indossabili (Apple Watch, Fitbit) nel proprio chatbot Copilot per fornire una sintesi sullo stato di salute.
- Accessibilità contro complessità: I sostenitori sostengono che l'IA possa aiutare i pazienti a districarsi tra cartelle cliniche frammentate e offrire un'alternativa a basso costo per ottenere informazioni sulla salute in un sistema sanitario sempre più costoso.
- La posizione di Microsoft: L'azienda sostiene che i dati sono crittografati e che non saranno adoperati per pubblicità o per l'addestramento dell'IA, e che, infine, lo strumento è destinato a fornire “orientamento e supporto” piuttosto che diagnosi mediche formali.
- Privacy e rischi legali: A differenza degli operatori sanitari, le aziende tecnologiche non sono vincolate dalle normative HIPAA. I dati sanitari centralizzati creano comunque una “miniera d'oro” per gli hacker e rendono più facile per le forze dell'ordine accedere a informazioni personali sensibili.
- Preoccupazioni sull'accuratezza: La ricerca indica che i chatbot spesso non sono migliori delle ricerche sul web nel diagnosticare le condizioni e possono non riconoscere le emergenze potenzialmente letali.
- Rischio di disinformazione: È noto che i modelli di IA possono “avere allucinazioni” o fornire consigli pericolosi (ad esempio, suggerendo sostanze tossiche o trascurando un'insufficienza respiratoria), il che può causare danni fisici o visite mediche non necessarie dovute all'ansia.
Nessun commento:
Posta un commento