martedì 19 agosto 2025

in UK i medici dissero di no. Ora,invece le aziende di Rider dicono si' alls dazione di dati delicati dei loro dipendenti

 Sotto la notizia , permettetemi un breve commento introduttivo

In Inghilterra in questi giorni stanno implementando una decisione grave: usare aziende che gestiscono dati , quelle dei Rider,  per ottenere da loro quello che i medici britannici tempo fa rifiutarono di dare al governo: dati anagrafici e RESIDENZIALi degli occupati in aziende di  rider.
Insomma governo e ditte, che vivono intorno ai loro database, sono alleati per dare la caccia a poveracci che umilmente lavorano per i viziati occidentali che chiedono la pizza sul pianerottolo pur di non muovere i loro sederino .
E cosi i governanti UK hanno anche platealmente e scorrettamente saltato il No dei medici a questa schedatura di massa che ricorda la Stasi della  Germanie dell Est. 
Tutto cio condotto da chi (l'UK)  sino a qualche anno fa ammiravo come patria della democrazia e della scienza, dell'ebm ( ma mi restavano dei dubbi : erano gli stessi che in maniera ridicola hanno mantenuto miglia, piedi, pollici,pinte ... un segno premonitore di un predominio scientifico e culturale quanto meno dubbio --> da cui la ridicola Brexit)  

Francesco Del Zotti - Verona
-gia membro tecnico della commissione ICT della FNOMCeO 
-ora membro di analoga commissione all'ODM di Verona
  
+++++++++++++
Ed ecco la notizia:

Migranti, Starmer insegue Trump: arruolate le piattaforme di delivery per stanare gli irregolari | LA NOTIZIA
di Giulio Cavalli

Appena qui sotto la sintesi , da me lievemente modificata, di Gemini; più sotto l'articolo originale:

L'articolo discute le nuove politiche del governo del Regno Unito, guidato da Keir Starmer, per contrastare l'immigrazione irregolare. I punti chiave sono:
  • Accordo con le piattaforme di delivery: Il governo ha stretto un accordo con aziende come Deliveroo, Just Eat e Uber Eats per condividere dati e incrociare le rotte dei rider con le posizioni degli "asylum hotels" al fine di individuare i migranti che lavorano senza permesso.
  • Aumento dei controlli e sanzioni: Sono stati introdotti controlli biometrici, e in una sola settimana sono stati effettuati 1.780 controlli, con 280 arresti. Sono previste sanzioni fino a 60.000 sterline per chi impiega migranti irregolari.
  • Critiche alle politiche: L'articolo sottolinea che queste politiche, pur dichiarando l'obiettivo di combattere i trafficanti, in realtà criminalizzano i richiedenti asilo che sono costretti a lavori precari a causa del divieto di lavorare regolarmente.
  • Restrizioni per studenti e lavoratori stranieri: Il governo ha ridotto la durata del visto post-laurea per studenti internazionali:  ha imposto controlli biometrici e ha aumentato i requisiti per il visto di lavoro qualificato.
  • Impatto economico e sociale: Queste misure potrebbero avere un impatto negativo sulla sostenibilità economica delle università britanniche, che dipendono in gran parte dalle rette degli studenti internazionali.
  • Parallelo con Trump: L'articolo evidenzia una convergenza con le politiche dell'amministrazione Trump negli Stati Uniti, in particolare per l'uso di partnership con il settore privato per la sorveglianza e il rafforzamento  delle leggi sull'immigrazione.

++++++++++++++++++++++++++++++++++++++++++++++

ARTICOLO da LANOTIZIAGIORNALEIT  

Migranti, Starmer insegue Trump: arruolate le piattaforme di delivery per stanare gli irregolari

Dai rider agli studenti stranieri, Starmer adotta il manuale di Trump: controlli biometrici, visti tagliati e big del delivery di pattuglia.

Nel Regno Unito di Keir Starmer, il partito nato dalle lotte dei lavoratori ha scelto di combattere il lavoro irregolare trasformando le piattaforme di delivery in agenti di polizia amministrativa. Il 22 luglio il governo ha firmato con DeliverooJust Eat e Uber Eats un accordo che va oltre i controlli interni già esistenti: l’Home Office condivide con le aziende la posizione degli “asylum hotels”, gli edifici turistici o dismessi riconvertiti in alloggi per richiedenti asilo, per incrociare i dati con le rotte dei rider e individuare chi lavora senza permesso. In parallelo, sono stati introdotti controlli biometrici giornalieri e tecnologie anti-frode avanzate.

In una sola settimana di operazioni, dal 20 al 27 luglio, sono stati effettuati 1.780 controlli, 280 arresti e revocati i sussidi a 53 richiedenti asilo. Il governo rivendica un +50% di ispezioni per “illegal working” e promette di estendere l’obbligo di verifiche anche a tutti i lavoratori della gig economy, con sanzioni fino a 60.000 sterline per chi impiega migranti irregolari. L’impianto è chiaro: spostare sul settore privato il peso dell’enforcement, fondendo banche dati pubbliche e infrastrutture di sorveglianza aziendali.

La sorveglianza come regola

La logica dichiarata è quella di smantellare il business dei trafficanti e proteggere “i lavoratori onesti”. La realtà documentata da Refugee Council e Joint Council for the Welfare of Immigrants è diversa: vietare il lavoro regolare ai richiedenti asilo, costringerli a mesi o anni di inattività e poi criminalizzare il ricorso a lavori precari significa mantenere in vita l’irregolarità prodotta dal sistema stesso. Il Regno Unito, libero dai vincoli Ue, ha scelto di ignorare la direttiva europea sui lavoratori delle piattaforme che introduce una presunzione legale di subordinazione e limiti alla sorveglianza digitale.

Il giro di vite non si ferma ai rider. Nel White Paper del 12 maggio, il governo ha ridotto da due anni a 18 mesi il visto post-laurea per studenti internazionali, imposto controlli biometrici periodici e previsto un prelievo obbligatorio del 6% sulle rette estere da versare allo Stato. Ha inoltre alzato i requisiti per il visto di lavoro qualificato – ora serve almeno una laurea e un salario minimo più alto – e allungato da cinque a dieci anni il percorso per ottenere la residenza permanente, con eccezioni solo per alcune professioni sanitarie.

Università e lavoro sotto pressione

Gli effetti potenziali sono rilevanti: nel 2022/23 quasi metà delle entrate universitarie proveniva da studenti internazionali, ora disincentivati da costi più alti e percorsi più brevi. Per molti atenei, significa un colpo alla sostenibilità economica e alla capacità di attrarre talenti globali.

Sul piano politico, la convergenza con Donald Trump è evidente nelle modalità di enforcement, nell’uso del linguaggio del “controllo” e nella delega della sorveglianza al settore privato. Negli Stati Uniti, l’amministrazione repubblicana ha fatto di E-Verify e delle partnership con data broker un’arma contro il lavoro irregolare; Starmer ha scelto come apripista il delivery, ma con la stessa logica di rendere “frizionale” la vita lavorativa degli irregolari.

La differenza è nella scala e nella cornice giuridica: Trump punta alla deportazione di massa e alla riscrittura delle regole costituzionali, Starmer agisce all’interno dell’ordinamento britannico. Ma la direzione è simile: deterrenza, detenzione, deportazione. Con la differenza che a Londra queste politiche sono state varate da un governo laburista, mentre nelle piazze universitarie e nelle cucine dei ristoranti si fa sempre più evidente il prezzo sociale di questa scelta.
    di Giulio Cavalli  

pazienti e IA apprendisti stregoni al bromuro

 Permettetemi una breve introduzione  
Ne avrete sentito parlare. In ogni caso si tratta di  un caso emblematico di cui discutere con i pazienti, con i politici e con i tecno-padroni di chatgpt e similari. 

Non possiamo evitare che i pazienti usino questi strumenti. Bisogna educarli anche  con casi esemplari negativi come questo ( Non pochi) e con casi positivi (pochi, ancora) . Ad ogni modo  ritengo che il "consenso informato" non dovrebbe riguardare solo gli interventi diagnostici e terapeutici del medico; ma esso deve estendersi, come dovere, ai pazienti: avranno il dovere di dirci quali fonti di persone, specialisti  o di App o di IA hanno utilizzato prima di venire dal medico
Infine, qui sotto riporto il caso e il link all'articolo full del referenziato Annals of Internal Medicine



Francesco Del Zotti
*********************************

Questo caso, qui da me sintetizzato, e' stato pubblicato per intero su rivista referenziata

A Case of Bromism Influenced by Use of Artificial Intelligence

PublicationAnnals of Internal Medicine: Clinical Cases
Volume 4Number 8
https://doi.org/10.7326/aimcc.2024.1260   (scaricabile liberamente cliccando il sito a sinistra)

Un uomo di 60 anni, dopo aver consultato ChatGPT per consigli nutrizionali, non scoraggiato da Chatgpt, ha intrapreso un pericoloso esperimento: ha eliminato il sale da cucina (cloruro di sodio) dalla sua dieta, sostituendolo con il bromuro di sodio acquistato online.

Tre mesi dopo, è stato ricoverato in ospedale con sintomi di paranoia, allucinazioni e disidratazione. Nonostante avesse studiato nutrizione, ha omesso di menzionare ai medici il suo esperimento con il bromuro. Gli esami hanno rivelato una grave carenza di vitamine e un'intossicazione da bromo, nota come bromismo.

Il bromismo, causato dall'accumulo di bromo nell'organismo, può provocare disturbi mentali e neurologici. Un tempo era una causa comune di ricoveri psichiatrici a causa dell'uso di sedativi a base di bromo.

L'uomo è stato ricoverato in psichiatria, sottoposto a un trattamento per espellere il bromo e curato con farmaci antipsicotici. Le sue condizioni sono migliorate dopo tre settimane. Durante la degenza, ha spiegato ai medici di aver seguito il consiglio di ChatGPT.

I medici hanno poi verificato che le vecchie versioni del chatbot menzionavano il bromuro come alternativa al cloruro senza fornire chiare avvertenze sulla salute umana. Le versioni più recenti di ChatGPT sono più sicure e specifiche, sconsigliando l'uso del bromuro per la dieta.

Questo caso serve da monito sui pericoli di affidarsi ciecamente alle informazioni online, specialmente in campo medico, senza consultare professionisti qualificati.

sabato 16 agosto 2025

esperto di AI contro il suo uso nella guerra ( a Gaza): licenziato ! Mala tempora currunt ..

(Letto su Domani  1 agosto 25, di Damiano D'agostino; e sintetizzato per voi  )


Il 24 ottobre 2024, un dipendente di Microsoft, Hossam Nasr, 26 anni, è stato licenziato con effetto immediato per aver co-organizzato una veglia in memoria delle vittime palestinesi. Nasr accusa Microsoft di complicità nel conflitto in Medio Oriente a causa dei suoi contratti con il governo e l'esercito israeliano.

Il ruolo di Microsoft nel conflitto

Secondo inchieste di Associated Press e +972 Magazine, Microsoft fornisce servizi di cloud computing e intelligenza artificiale (in particolare permettendo l'accesso alla piattaforma Azure) a specifici dipartimenti dell'esercito israeliano, come l'Unità 8200. Nasr sostiene che questi strumenti, che includono l'archiviazione di circa 13,6 petabyte di dati di sorveglianza sui palestinesi, abbiano accelerato il ritmo dei bombardamenti a Gaza. L'uso dell'IA e dei servizi cloud viene descritto come essenziale, paragonabile alle munizioni del XXI secolo. Microsoft avrebbe parzialmente ammesso di fornire a Israele servizi di IA e cloud per trascrivere, tradurre e processare informazioni di intelligence usate per identificare bersagli.

Reazioni e proteste

Oltre al licenziamento, Nasr è stato vittima di doxing, una forma di cyberbullismo in cui informazioni private vengono diffuse online. La notizia del suo licenziamento è stata divulgata da un gruppo noto per molestare attivisti pro-Palestina, poco prima della comunicazione ufficiale dell'azienda. Nonostante questo, Nasr ha definito il suo licenziamento un "piccolo prezzo da pagare" rispetto alla sofferenza dei palestinesi.

Il 19 maggio, il gruppo No Azure for Apartheid ha organizzato una protesta al campus di Microsoft, con cartelli che accusavano i vertici dell'azienda, Satya Nadella e Scott Guthrie, di avere le mani sporche di sangue.

La protesta dei dipendenti Microsoft si inserisce in un contesto più ampio che vede anche i dipendenti di Google e Amazon denunciare le proprie aziende per il "Progetto Nimbus", un servizio cloud fornito al governo israeliano.


Mio commento

Insomma la Rete, nata per affratellare e collegare in un solo istante persone e popolazioni lontane,

si dimostra sem più un sistema per allontonare, con un solo click o con un solo algoritmo, la propria inventiva dalla sua responsabilità sociale 


Francesco Del Zotti

giovedì 24 luglio 2025

la Posizione, la posizione!

 Settimane fa visito  una riserva naturale protetta. E vedo alla mia sinistra fumo proveniente da terra. Si tratta di accensione di stoppie ai confini o all'interno del parco? Aspetto. Dopo un'ora una seconda fuoriuscita da probabile accensione di stoppie o qualcosa d'altro, in una zona molto delicata (nei pressi di un parco protetto)

Chiamo la forestale e li avviso. Dalla centrale mi dicono di fare una foto e di inviare la foto e la mia "posizione".

E' diventato un ritornello fastidioso. Chiamiamo un servizio pubblico e i funzionari ci chiedono di lavorare informaticamente  per loro;  e inviare la  preziosa "posizione". Ciò significa andare su Waze o Google maps derivare la nostra posizione ed inviarla ( dati sensibili, nostri) .  E poi: per (quale) cellulare e whatsApp (che io per principio Non posseggo; uso Signal) ?

Insomma, costoro magari non intervengono perché svariati cittadini non sanno o non vogliono eseguire  queste operazioni che spetterebbero a loro. Poi, paradosso nel paradosso, accanto a me vedo una torre di avvistamento. Magari ve ne sono diverse nel parco. Non pretendo che vi sia un omino per ogni postazione; ma penso che siano opportune telecamere girevoli che in genere non costano  molti soldi.

Qualcuno finirà per equivocare: e invece della posizione Gps magari invierà una delle posizioni del famoso libro indiano.


Francesco Del Zotti

lunedì 30 giugno 2025

Numero aperto e quasi sguaiato

 Ho letto che quest'anno non vi sarà test di ingresso. Ovviamente gli insegnanti delle materie pre-cliniche  sono allarmati.  Come faranno le insufficienti aule a contenere una probabile massa ? Quando mi iscrissi a Medicina non vi era il  numero chiuso. Al I anno l'impatto delle sale stracolme fu per me scioccante. 
Avevo pensato ,prima di iscrivermi, alla facoltà di Astronomia. Visitai le loro lezioni: vi erano al massimo 20 studenti. Stavo per cambiare. Poi i miei genitori mi dissero: ma gli osservatori astronomici sono lontani dalla mia piccola città di provincia.  La beffa venne dopo pochi anni: nella mia città è sorto uno dei centri astronomici più importanti di Italia.

Ma vi è un altro punto che mi preoccupa. Nei primi 6 mesi non vi sarà colloquio, ne' test a crocette ma immagino solo insegnamenti delle materie precliniche.  E solo dopo  vi sarà selezione: in base a quali criteri?  Chi ha un'indole più incline alla Medicina Generale rischia di essere penalizzato daa questa anti-camera strettamente basata su materie pre-cliniche e sau conoscenze non-relazionali

Francesco Del Zotti

martedì 20 maggio 2025

Chat-bot AI con la voce del medico: senza il consenso del paziente e magari dello stesso medico ?

 Care colleghe e cari colleghi

vi scrivo sotto prima la sintesi di un notizia pubblicata mesi fa sul NYT in merito ad un esperimento avanzato di uso di chatbot LLM collegati alla Intelligenza Artificiale in medicina ed in fine un mio breve commento



I) "Quel messaggio del tuo medico? Potrebbe essere stato redatto da un'Intelligenza Artificiale (IA)"


Fonte da cui ho ricavato una sintesi : That Message From Your Doctor? It May Have Been Drafted by A.I. - The New York Times

di Teddy Rosenbluth

MyChart (della Epic system Corporation), il software e portale per pazienti ampiamente utilizzato, ora dispone di uno strumento basato sull'intelligenza artificiale che i medici possono utilizzare per scrivere messaggi ai propri pazienti. Ogni giorno, i pazienti inviano migliaia di messaggi ai propri medici tramite MyChart. I pazienti descrivono il loro sintomi  confidando che vi sia il loro medico dall'altra parte e che egli dia loro consigli. Ma i pazienti in genere non sanno che la risposta viene pre-confezionata da un sistema di di IA.

Come funziona MyChart?  Invece di iniziare la relazione con il paziente via chat  con una schermata vuota, il medico vede una risposta generata automaticamente in merito alla  domanda del paziente. La risposta deriva  da  una versione di GPT-4 (la tecnologia alla base di ChatGPT)

Vi e' da aggiungere che il tool MyChart, prima di fornire la risposta, preleva dalla cartella computerizzata del medico precedenti informazioni mediche e la lista dei farmaci registrata sulla cartella computerizzata.

Insomma sempre più spesso le risposte a questi messaggi non vengono scritte dal medico, almeno non del tutto. Circa 15.000 medici e assistenti in oltre 150 sistemi sanitari USA utilizzano la nuova funzionalità di intelligenza artificiale di MyChart per elaborare le risposte a tali messaggi.

In alcuni centri, oltre agli ospedalieri, MyChart può essere usato da MMG, farmacisti, infermieri.


In alcune interviste, i funzionari di diversi sistemi sanitari che utilizzano lo strumento MyChart hanno ammesso di non rivelare ai pazienti che i messaggi contengono contenuti generati dall'intelligenza artificiale. Quindi molti pazienti che ricevono queste risposte non hanno idea che siano state scritte con l'ausilio dell'intelligenza artificiale; ne' ovviamente hanno dato un consenso informato

Altri sistemi appongono un avviso  in fondo al messaggio, in cui chiariscono che la risposta e' confezionata dal sistema di IA e quindi poi supervisionata dai medici. “Non vedo personalmente nessuna contro-indicazione ad essere trasparenti ” ha dichiarato il Dr. Christopher Longhurst, il direttore sanitario dell'UC San Diego Health"

Ma , secondo altri decisori e manager,  dichiarare ai pazienti che il messaggio ha un contenuto di I.A.  potrebbe far sottovalutare la consulenza clinica, anche se è stata approvata dai loro medici.

Inoltre altri sistemi — ad es gli Stanford Health Care, U.W. Health, U.N.C. Health and N.Y.U. Langone Health — hanno deciso che l'essere trasparenti e chiedere il consenso informato avrebbero prodotto nei pazienti più danni che benefici. Questi amministratori sono preoccupati per due elementi: a) che l'inserimento dell'avviso possa divenire una scusa per inviare , da parte del medico, messaggi senza un'approfondita valutazione; b) che, dopo questo avviso esplicito ai pazienti, i messaggi di ritorno, sebbene supervisionati dal medico, possano sminuire il consiglio medico


Vi è un'  assenza di rigide regole governative e di direttive etiche:  ciò permette ad  ogni diverso sistema sanitario di decidere come valutare  la sicurezza dello strumento e se informare o meno  i pazienti sul suo utilizzo.

La tendenza verso l'uso di MyChart preoccupa alcuni esperti che temono che i medici potrebbero non essere abbastanza vigili da individuare errori potenzialmente pericolosi nei messaggi di rilevanza medica redatti dall’intelligenza artificiale.


Ed in effetti MyChart non è immune da errori e dalle tipiche "allucinazioni" di questi chatbot  LLM .

Il Dr. Vinay Reddy, un medico di famiglia della organizzazione UNC health,  ha citato un caso in cui in cui il paziente chiedeva se aveva bisogno di vaccino per la B. Il sistema di IA  ha con sicurezza risposto che il paziente aveva ricevuto il vaccino e aveva fornito le date delle dosi del vaccino e dei richiami. Ciò era completamente falso e l'errore dipendeva dal fatto che il sistema di IA non aveva accesso alla parte di database riguardante i vaccini.

I medici che hanno rivisto sistematicamente le risposte di MyChart hanno riscontrato errori nel 7% dei casi.

E ciò che è più allarmante è il riscontro che circa un terzo delle risposte sono arrivate ai pazienti senza alcuna correzione , nemmeno formale, da parte dei medici. Cresce un sospetto: magari per mancanza di tempo alcuni medici non hanno supervisionato le risposte automatiche e le hanno fatte fluire, intatte, verso i pazienti

Ciò che è ulteriormente preoccupante è che vi è stato un progetto avanzato per far in modo che lo strumento possa essere configurato per far dettare la risposta scritta dal chatbot  con la voce, clonata, del singolo medico; ma il progetto ha incontrato resistenze da parte degli stessi medici


Al di là delle questioni di sicurezza e mancata trasparenza , alcuni bioeticisti hanno manifestato una importante preoccupazione : " è proprio questa la IA che vogliamo usare in medicina?

Daniel Schiff, co-direttore del Governance and Responsabile dell'IA Lab presso la Purdue University è preoccupato. Questo tipo di Intelligenza Artificiale sembra intrufolarsi nei sempre meno frequenti momenti in cui pazienti e medici potrebbero effettivamente comunicare tra loro direttamente, in prossimità. "Anche se fosse impeccabile, vorresti automatizzare uno dei pochi modi in cui interagiamo ancora tra di noi? "


II) Miei brevi Commenti ( di Francesco Del Zotti)

La comunicazione elettronica ed i suoi prodotti più avanzati (la IA) lasciati senza briglia possono rovinare per sempre la Medicina Ippocratica , praticata da noi medici da 2400 anni.

Rileggendo quanto sopra descritto la cosa più incredibile è notare come i manager e gli ingegneri che architettano tale stravolgente sistema sembrano vedere come un ostacolo il dire la verità al paziente ( si sta usando un chatbot al posto del medico; e non lo si dice al paziente) . Si sminuisce così il peso del Consenso Informato, che,invece, a mio parere, dovrebbe diventare sempre più centrale in medicina, visti questi straordinari stravolgimenti. Nello stesso tempo i responsabili dei cambiamenti, consci della continua importanza di un rapporto personalizzato, non si stanno facendo scrupolo nel provare a trasformare il testo automatizzato in voce clonata del medico, magari non avvertito di ciò.

Grave mi sembra poi il fatto che alcuni medici, presi negli ingranaggi degli automatismi e del risparmiare tempo ( una riproposizione per medici di "Tempi Moderni" di Chaplin) potrebbero inviare un terzo dei messaggi senza nemmeno visionarli.

Quanto poi alle allucinazioni ed errori dei chatbot LLM, si ribadisce una notizia ben nota.

Qualcuno potrebbe obbiettare: ma anche i medici commettono errori. Qui ci sovviene l'ultima frase illuminante dell'articolo: "Anche se fosse impeccabile, vorresti automatizzare uno dei pochi modi in cui interagiamo ancora tra di noi? " .

Sono convinto che, anche dopo la IA, i pazienti ed i medici vogliano essere loro ad assumersi la responsabilità della verità errori e della responsabilità interpersonale e gestionale degli atti medici. Aristotele insegna: gli uomini sono per scelta animali sociali e nessuna macchina potrà sostituire questo anelito.


lunedì 3 marzo 2025

Altruismo solo se contatto. Ricerca su Science

Un eccezionale video legato ad una ricerca su Science  mostra un topo utilizzare, per contatto, tutte le manovre di rianimazione affianco ad un topo apparentemente morto o in coma; il video ci  dimostra che anche tra i topi l'altruismo viene alimentato dal "contatto di prossimità". 

Il video lo potete vedere a questo link

https://tech.everyeye.it/notizie/topi-cercano-rianimare-compagni-svenuti-video-commuovere-781568.html

Secondo la ricerca  pubblicata sull'autorevole Science : Science DOI: 10.1126/science.adq2677   questo comportamento altruistico dipende dall'ossitocina, che ha anche note azioni nell'uomo (ad es nel legame madre-figlio)

Ora mi/vi chiedo: lo sviluppo della telemedicina e dei contatti per messaggistica o per solo telefono non potrebbero compromettere la "medicina di prossimità", colonna di tutti i tempi di una professione legata agli incontri in piccoli spazi ( ambulatorio, stanza del domicilio) e contatti fisici connessi  all'esame obiettivo?


Francesco Del Zotti