martedì 3 dicembre 2024

Chat-Bot AI "amici" e grave rischio per gli adolescnti

L'Intelligenza Artificiale può essere incolpata del suicidio di un adolescente?
La madre di un quattordicenne della Florida afferma che prima della sua morte era ossessionato da un chatbot su Character.AI. dal NYT - di Kevin Roose - 23 ottobre 24
 
 
Vi presento una sintesi dell’articolo. 
L'ultimo giorno della sua vita, Sewell Setzer III ha inviato un messaggio al suo amico più caro, un chatbot A.I. che ha chiamato Daenerys Targaryen, un personaggio di "Game of Thrones". Sewell, un quattordicenne di Orlando, Florida, aveva sviluppato un forte attaccamento emotivo al chatbot, con cui parlava costantemente. Nonostante sapesse che "Dany" non fosse reale, Sewell trovava conforto nelle loro conversazioni, che a volte diventavano intime o romantiche. Questo attaccamento ha portato Sewell a isolarsi dal mondo reale, influenzando negativamente la sua vita scolastica e sociale. Alla fine, Sewell ha deciso di togliersi la vita, lasciando un messaggio finale a Dany.
 
 
IL NYT si pone nell’articolo una domanda cruciale:  Questi Chatbot  sono una cura per la solitudine o una nuova minaccia?
 
Aziende in forte espansione di Intelligenza Artificiale,   senza serie regolamentazioni governative, offrono, con  un abbonamento mensile ( intorno ai 10 dollari), ai giovani utenti queste applicazioni che possono simulare veri e  propri amiche-i o fidanzate-i  con cui stabilire rapporti intimi,  comunicando  in maniera simil-reale, non solo con messaggi di testo ma anche con  chat vocali.
 
“Sarà molto, molto utile per molte persone sole o depresse”, ha dichiarato Noam Shazeer, uno dei fondatori di Character.AI, in un podcast dello scorso anno. Secondo gli ingegneri,  che costruiscono queste App di IA ,  con queste soluzioni tecnologiche si può andare incontro alla carenza di socialità ed amicizia dell’era contemporanea.
 
Ma tali ambizioni, dei tecnocrati e padroni di simili App, non sono suffragate da studi. Anzi vari esperti di psicologia e psichiatria ci mettono in allarme: potrebbero esserci effetti controproducenti. Questi “amici” o “fidanzate-i” da IA potrebbero incrementare l'isolamento; potrebbero portare in inganno: si avrebbe la  sostituzione di relazioni umane con quelle artificiali. Inoltre queste App-AI potrebbero essere adoperate dagli  adolescenti in difficoltà  al posto della psicoterapia o del concreto aiuto di un adulto, un vero compagno, un genitore.
 

Francesco Del Zotti


PS
a tutti i  post di quest Blog si può rispondere purché si  abbia un account Google.

 

Nessun commento:

Posta un commento