L'Intelligenza Artificiale può essere incolpata del
suicidio di un adolescente?
La madre di un quattordicenne della Florida afferma
che prima della sua morte era ossessionato da un chatbot su Character.AI. dal NYT - di Kevin Roose - 23
ottobre 24
Vi presento una sintesi dell’articolo.
L'ultimo giorno della sua vita, Sewell Setzer III ha inviato un messaggio al
suo amico più caro, un chatbot A.I. che ha chiamato Daenerys Targaryen, un
personaggio di "Game of Thrones". Sewell, un quattordicenne di
Orlando, Florida, aveva sviluppato un forte attaccamento emotivo al chatbot,
con cui parlava costantemente. Nonostante sapesse che "Dany" non
fosse reale, Sewell trovava conforto nelle loro conversazioni, che a volte
diventavano intime o romantiche. Questo attaccamento ha portato Sewell a
isolarsi dal mondo reale, influenzando negativamente la sua vita scolastica e
sociale. Alla fine, Sewell ha deciso di togliersi la vita, lasciando un
messaggio finale a Dany.
IL NYT si pone nell’articolo una domanda cruciale: Questi Chatbot sono una cura per la solitudine o una nuova
minaccia?
Aziende in forte espansione di Intelligenza Artificiale, senza serie regolamentazioni governative,
offrono, con un abbonamento mensile (
intorno ai 10 dollari), ai giovani utenti queste applicazioni che possono simulare
veri e propri amiche-i o fidanzate-i con cui stabilire rapporti intimi, comunicando in maniera simil-reale, non solo con messaggi di
testo ma anche con chat vocali.
“Sarà molto, molto utile per molte persone sole o
depresse”, ha dichiarato Noam Shazeer, uno dei fondatori di
Character.AI, in un podcast dello scorso anno. Secondo gli ingegneri, che costruiscono queste App di IA , con queste soluzioni tecnologiche si può andare
incontro alla carenza di socialità ed amicizia dell’era contemporanea.
Ma tali ambizioni, dei tecnocrati e padroni di simili App, non
sono suffragate da studi. Anzi vari esperti di psicologia e psichiatria ci mettono
in allarme: potrebbero esserci effetti controproducenti. Questi “amici” o “fidanzate-i”
da IA potrebbero incrementare l'isolamento; potrebbero portare in inganno: si
avrebbe la sostituzione di relazioni
umane con quelle artificiali. Inoltre queste App-AI potrebbero essere adoperate
dagli adolescenti in difficoltà al
posto della psicoterapia o del concreto aiuto di un adulto, un vero compagno,
un genitore.
Francesco Del Zotti
PS
a tutti i post di quest Blog si può rispondere purché si abbia un account Google.