martedì 19 agosto 2025

in UK i medici dissero di no. Ora,invece le aziende di Rider dicono si' alls dazione di dati delicati dei loro dipendenti

 Sotto la notizia , permettetemi un breve commento introduttivo

In Inghilterra in questi giorni stanno implementando una decisione grave: usare aziende che gestiscono dati , quelle dei Rider,  per ottenere da loro quello che i medici britannici tempo fa rifiutarono di dare al governo: dati anagrafici e RESIDENZIALi degli occupati in aziende di  rider.
Insomma governo e ditte, che vivono intorno ai loro database, sono alleati per dare la caccia a poveracci che umilmente lavorano per i viziati occidentali che chiedono la pizza sul pianerottolo pur di non muovere i loro sederino .
E cosi i governanti UK hanno anche platealmente e scorrettamente saltato il No dei medici a questa schedatura di massa che ricorda la Stasi della  Germanie dell Est. 
Tutto cio condotto da chi (l'UK)  sino a qualche anno fa ammiravo come patria della democrazia e della scienza, dell'ebm ( ma mi restavano dei dubbi : erano gli stessi che in maniera ridicola hanno mantenuto miglia, piedi, pollici,pinte ... un segno premonitore di un predominio scientifico e culturale quanto meno dubbio --> da cui la ridicola Brexit)  

Francesco Del Zotti - Verona
-gia membro tecnico della commissione ICT della FNOMCeO 
-ora membro di analoga commissione all'ODM di Verona
  
+++++++++++++
Ed ecco la notizia:

Migranti, Starmer insegue Trump: arruolate le piattaforme di delivery per stanare gli irregolari | LA NOTIZIA
di Giulio Cavalli

Appena qui sotto la sintesi , da me lievemente modificata, di Gemini; più sotto l'articolo originale:

L'articolo discute le nuove politiche del governo del Regno Unito, guidato da Keir Starmer, per contrastare l'immigrazione irregolare. I punti chiave sono:
  • Accordo con le piattaforme di delivery: Il governo ha stretto un accordo con aziende come Deliveroo, Just Eat e Uber Eats per condividere dati e incrociare le rotte dei rider con le posizioni degli "asylum hotels" al fine di individuare i migranti che lavorano senza permesso.
  • Aumento dei controlli e sanzioni: Sono stati introdotti controlli biometrici, e in una sola settimana sono stati effettuati 1.780 controlli, con 280 arresti. Sono previste sanzioni fino a 60.000 sterline per chi impiega migranti irregolari.
  • Critiche alle politiche: L'articolo sottolinea che queste politiche, pur dichiarando l'obiettivo di combattere i trafficanti, in realtà criminalizzano i richiedenti asilo che sono costretti a lavori precari a causa del divieto di lavorare regolarmente.
  • Restrizioni per studenti e lavoratori stranieri: Il governo ha ridotto la durata del visto post-laurea per studenti internazionali:  ha imposto controlli biometrici e ha aumentato i requisiti per il visto di lavoro qualificato.
  • Impatto economico e sociale: Queste misure potrebbero avere un impatto negativo sulla sostenibilità economica delle università britanniche, che dipendono in gran parte dalle rette degli studenti internazionali.
  • Parallelo con Trump: L'articolo evidenzia una convergenza con le politiche dell'amministrazione Trump negli Stati Uniti, in particolare per l'uso di partnership con il settore privato per la sorveglianza e il rafforzamento  delle leggi sull'immigrazione.

++++++++++++++++++++++++++++++++++++++++++++++

ARTICOLO da LANOTIZIAGIORNALEIT  

Migranti, Starmer insegue Trump: arruolate le piattaforme di delivery per stanare gli irregolari

Dai rider agli studenti stranieri, Starmer adotta il manuale di Trump: controlli biometrici, visti tagliati e big del delivery di pattuglia.

Nel Regno Unito di Keir Starmer, il partito nato dalle lotte dei lavoratori ha scelto di combattere il lavoro irregolare trasformando le piattaforme di delivery in agenti di polizia amministrativa. Il 22 luglio il governo ha firmato con DeliverooJust Eat e Uber Eats un accordo che va oltre i controlli interni già esistenti: l’Home Office condivide con le aziende la posizione degli “asylum hotels”, gli edifici turistici o dismessi riconvertiti in alloggi per richiedenti asilo, per incrociare i dati con le rotte dei rider e individuare chi lavora senza permesso. In parallelo, sono stati introdotti controlli biometrici giornalieri e tecnologie anti-frode avanzate.

In una sola settimana di operazioni, dal 20 al 27 luglio, sono stati effettuati 1.780 controlli, 280 arresti e revocati i sussidi a 53 richiedenti asilo. Il governo rivendica un +50% di ispezioni per “illegal working” e promette di estendere l’obbligo di verifiche anche a tutti i lavoratori della gig economy, con sanzioni fino a 60.000 sterline per chi impiega migranti irregolari. L’impianto è chiaro: spostare sul settore privato il peso dell’enforcement, fondendo banche dati pubbliche e infrastrutture di sorveglianza aziendali.

La sorveglianza come regola

La logica dichiarata è quella di smantellare il business dei trafficanti e proteggere “i lavoratori onesti”. La realtà documentata da Refugee Council e Joint Council for the Welfare of Immigrants è diversa: vietare il lavoro regolare ai richiedenti asilo, costringerli a mesi o anni di inattività e poi criminalizzare il ricorso a lavori precari significa mantenere in vita l’irregolarità prodotta dal sistema stesso. Il Regno Unito, libero dai vincoli Ue, ha scelto di ignorare la direttiva europea sui lavoratori delle piattaforme che introduce una presunzione legale di subordinazione e limiti alla sorveglianza digitale.

Il giro di vite non si ferma ai rider. Nel White Paper del 12 maggio, il governo ha ridotto da due anni a 18 mesi il visto post-laurea per studenti internazionali, imposto controlli biometrici periodici e previsto un prelievo obbligatorio del 6% sulle rette estere da versare allo Stato. Ha inoltre alzato i requisiti per il visto di lavoro qualificato – ora serve almeno una laurea e un salario minimo più alto – e allungato da cinque a dieci anni il percorso per ottenere la residenza permanente, con eccezioni solo per alcune professioni sanitarie.

Università e lavoro sotto pressione

Gli effetti potenziali sono rilevanti: nel 2022/23 quasi metà delle entrate universitarie proveniva da studenti internazionali, ora disincentivati da costi più alti e percorsi più brevi. Per molti atenei, significa un colpo alla sostenibilità economica e alla capacità di attrarre talenti globali.

Sul piano politico, la convergenza con Donald Trump è evidente nelle modalità di enforcement, nell’uso del linguaggio del “controllo” e nella delega della sorveglianza al settore privato. Negli Stati Uniti, l’amministrazione repubblicana ha fatto di E-Verify e delle partnership con data broker un’arma contro il lavoro irregolare; Starmer ha scelto come apripista il delivery, ma con la stessa logica di rendere “frizionale” la vita lavorativa degli irregolari.

La differenza è nella scala e nella cornice giuridica: Trump punta alla deportazione di massa e alla riscrittura delle regole costituzionali, Starmer agisce all’interno dell’ordinamento britannico. Ma la direzione è simile: deterrenza, detenzione, deportazione. Con la differenza che a Londra queste politiche sono state varate da un governo laburista, mentre nelle piazze universitarie e nelle cucine dei ristoranti si fa sempre più evidente il prezzo sociale di questa scelta.
    di Giulio Cavalli  

pazienti e IA apprendisti stregoni al bromuro

 Permettetemi una breve introduzione  
Ne avrete sentito parlare. In ogni caso si tratta di  un caso emblematico di cui discutere con i pazienti, con i politici e con i tecno-padroni di chatgpt e similari. 

Non possiamo evitare che i pazienti usino questi strumenti. Bisogna educarli anche  con casi esemplari negativi come questo ( Non pochi) e con casi positivi (pochi, ancora) . Ad ogni modo  ritengo che il "consenso informato" non dovrebbe riguardare solo gli interventi diagnostici e terapeutici del medico; ma esso deve estendersi, come dovere, ai pazienti: avranno il dovere di dirci quali fonti di persone, specialisti  o di App o di IA hanno utilizzato prima di venire dal medico
Infine, qui sotto riporto il caso e il link all'articolo full del referenziato Annals of Internal Medicine



Francesco Del Zotti
*********************************

Questo caso, qui da me sintetizzato, e' stato pubblicato per intero su rivista referenziata

A Case of Bromism Influenced by Use of Artificial Intelligence

PublicationAnnals of Internal Medicine: Clinical Cases
Volume 4Number 8
https://doi.org/10.7326/aimcc.2024.1260   (scaricabile liberamente cliccando il sito a sinistra)

Un uomo di 60 anni, dopo aver consultato ChatGPT per consigli nutrizionali, non scoraggiato da Chatgpt, ha intrapreso un pericoloso esperimento: ha eliminato il sale da cucina (cloruro di sodio) dalla sua dieta, sostituendolo con il bromuro di sodio acquistato online.

Tre mesi dopo, è stato ricoverato in ospedale con sintomi di paranoia, allucinazioni e disidratazione. Nonostante avesse studiato nutrizione, ha omesso di menzionare ai medici il suo esperimento con il bromuro. Gli esami hanno rivelato una grave carenza di vitamine e un'intossicazione da bromo, nota come bromismo.

Il bromismo, causato dall'accumulo di bromo nell'organismo, può provocare disturbi mentali e neurologici. Un tempo era una causa comune di ricoveri psichiatrici a causa dell'uso di sedativi a base di bromo.

L'uomo è stato ricoverato in psichiatria, sottoposto a un trattamento per espellere il bromo e curato con farmaci antipsicotici. Le sue condizioni sono migliorate dopo tre settimane. Durante la degenza, ha spiegato ai medici di aver seguito il consiglio di ChatGPT.

I medici hanno poi verificato che le vecchie versioni del chatbot menzionavano il bromuro come alternativa al cloruro senza fornire chiare avvertenze sulla salute umana. Le versioni più recenti di ChatGPT sono più sicure e specifiche, sconsigliando l'uso del bromuro per la dieta.

Questo caso serve da monito sui pericoli di affidarsi ciecamente alle informazioni online, specialmente in campo medico, senza consultare professionisti qualificati.

sabato 16 agosto 2025

esperto di AI contro il suo uso nella guerra ( a Gaza): licenziato ! Mala tempora currunt ..

(Letto su Domani  1 agosto 25, di Damiano D'agostino; e sintetizzato per voi  )


Il 24 ottobre 2024, un dipendente di Microsoft, Hossam Nasr, 26 anni, è stato licenziato con effetto immediato per aver co-organizzato una veglia in memoria delle vittime palestinesi. Nasr accusa Microsoft di complicità nel conflitto in Medio Oriente a causa dei suoi contratti con il governo e l'esercito israeliano.

Il ruolo di Microsoft nel conflitto

Secondo inchieste di Associated Press e +972 Magazine, Microsoft fornisce servizi di cloud computing e intelligenza artificiale (in particolare permettendo l'accesso alla piattaforma Azure) a specifici dipartimenti dell'esercito israeliano, come l'Unità 8200. Nasr sostiene che questi strumenti, che includono l'archiviazione di circa 13,6 petabyte di dati di sorveglianza sui palestinesi, abbiano accelerato il ritmo dei bombardamenti a Gaza. L'uso dell'IA e dei servizi cloud viene descritto come essenziale, paragonabile alle munizioni del XXI secolo. Microsoft avrebbe parzialmente ammesso di fornire a Israele servizi di IA e cloud per trascrivere, tradurre e processare informazioni di intelligence usate per identificare bersagli.

Reazioni e proteste

Oltre al licenziamento, Nasr è stato vittima di doxing, una forma di cyberbullismo in cui informazioni private vengono diffuse online. La notizia del suo licenziamento è stata divulgata da un gruppo noto per molestare attivisti pro-Palestina, poco prima della comunicazione ufficiale dell'azienda. Nonostante questo, Nasr ha definito il suo licenziamento un "piccolo prezzo da pagare" rispetto alla sofferenza dei palestinesi.

Il 19 maggio, il gruppo No Azure for Apartheid ha organizzato una protesta al campus di Microsoft, con cartelli che accusavano i vertici dell'azienda, Satya Nadella e Scott Guthrie, di avere le mani sporche di sangue.

La protesta dei dipendenti Microsoft si inserisce in un contesto più ampio che vede anche i dipendenti di Google e Amazon denunciare le proprie aziende per il "Progetto Nimbus", un servizio cloud fornito al governo israeliano.


Mio commento

Insomma la Rete, nata per affratellare e collegare in un solo istante persone e popolazioni lontane,

si dimostra sem più un sistema per allontonare, con un solo click o con un solo algoritmo, la propria inventiva dalla sua responsabilità sociale 


Francesco Del Zotti

giovedì 24 luglio 2025

la Posizione, la posizione!

 Settimane fa visito  una riserva naturale protetta. E vedo alla mia sinistra fumo proveniente da terra. Si tratta di accensione di stoppie ai confini o all'interno del parco? Aspetto. Dopo un'ora una seconda fuoriuscita da probabile accensione di stoppie o qualcosa d'altro, in una zona molto delicata (nei pressi di un parco protetto)

Chiamo la forestale e li avviso. Dalla centrale mi dicono di fare una foto e di inviare la foto e la mia "posizione".

E' diventato un ritornello fastidioso. Chiamiamo un servizio pubblico e i funzionari ci chiedono di lavorare informaticamente  per loro;  e inviare la  preziosa "posizione". Ciò significa andare su Waze o Google maps derivare la nostra posizione ed inviarla ( dati sensibili, nostri) .  E poi: per (quale) cellulare e whatsApp (che io per principio Non posseggo; uso Signal) ?

Insomma, costoro magari non intervengono perché svariati cittadini non sanno o non vogliono eseguire  queste operazioni che spetterebbero a loro. Poi, paradosso nel paradosso, accanto a me vedo una torre di avvistamento. Magari ve ne sono diverse nel parco. Non pretendo che vi sia un omino per ogni postazione; ma penso che siano opportune telecamere girevoli che in genere non costano  molti soldi.

Qualcuno finirà per equivocare: e invece della posizione Gps magari invierà una delle posizioni del famoso libro indiano.


Francesco Del Zotti

lunedì 30 giugno 2025

Numero aperto e quasi sguaiato

 Ho letto che quest'anno non vi sarà test di ingresso. Ovviamente gli insegnanti delle materie pre-cliniche  sono allarmati.  Come faranno le insufficienti aule a contenere una probabile massa ? Quando mi iscrissi a Medicina non vi era il  numero chiuso. Al I anno l'impatto delle sale stracolme fu per me scioccante. 
Avevo pensato ,prima di iscrivermi, alla facoltà di Astronomia. Visitai le loro lezioni: vi erano al massimo 20 studenti. Stavo per cambiare. Poi i miei genitori mi dissero: ma gli osservatori astronomici sono lontani dalla mia piccola città di provincia.  La beffa venne dopo pochi anni: nella mia città è sorto uno dei centri astronomici più importanti di Italia.

Ma vi è un altro punto che mi preoccupa. Nei primi 6 mesi non vi sarà colloquio, ne' test a crocette ma immagino solo insegnamenti delle materie precliniche.  E solo dopo  vi sarà selezione: in base a quali criteri?  Chi ha un'indole più incline alla Medicina Generale rischia di essere penalizzato daa questa anti-camera strettamente basata su materie pre-cliniche e sau conoscenze non-relazionali

Francesco Del Zotti

martedì 20 maggio 2025

Chat-bot AI con la voce del medico: senza il consenso del paziente e magari dello stesso medico ?

 Care colleghe e cari colleghi

vi scrivo sotto prima la sintesi di un notizia pubblicata mesi fa sul NYT in merito ad un esperimento avanzato di uso di chatbot LLM collegati alla Intelligenza Artificiale in medicina ed in fine un mio breve commento



I) "Quel messaggio del tuo medico? Potrebbe essere stato redatto da un'Intelligenza Artificiale (IA)"


Fonte da cui ho ricavato una sintesi : That Message From Your Doctor? It May Have Been Drafted by A.I. - The New York Times

di Teddy Rosenbluth

MyChart (della Epic system Corporation), il software e portale per pazienti ampiamente utilizzato, ora dispone di uno strumento basato sull'intelligenza artificiale che i medici possono utilizzare per scrivere messaggi ai propri pazienti. Ogni giorno, i pazienti inviano migliaia di messaggi ai propri medici tramite MyChart. I pazienti descrivono il loro sintomi  confidando che vi sia il loro medico dall'altra parte e che egli dia loro consigli. Ma i pazienti in genere non sanno che la risposta viene pre-confezionata da un sistema di di IA.

Come funziona MyChart?  Invece di iniziare la relazione con il paziente via chat  con una schermata vuota, il medico vede una risposta generata automaticamente in merito alla  domanda del paziente. La risposta deriva  da  una versione di GPT-4 (la tecnologia alla base di ChatGPT)

Vi e' da aggiungere che il tool MyChart, prima di fornire la risposta, preleva dalla cartella computerizzata del medico precedenti informazioni mediche e la lista dei farmaci registrata sulla cartella computerizzata.

Insomma sempre più spesso le risposte a questi messaggi non vengono scritte dal medico, almeno non del tutto. Circa 15.000 medici e assistenti in oltre 150 sistemi sanitari USA utilizzano la nuova funzionalità di intelligenza artificiale di MyChart per elaborare le risposte a tali messaggi.

In alcuni centri, oltre agli ospedalieri, MyChart può essere usato da MMG, farmacisti, infermieri.


In alcune interviste, i funzionari di diversi sistemi sanitari che utilizzano lo strumento MyChart hanno ammesso di non rivelare ai pazienti che i messaggi contengono contenuti generati dall'intelligenza artificiale. Quindi molti pazienti che ricevono queste risposte non hanno idea che siano state scritte con l'ausilio dell'intelligenza artificiale; ne' ovviamente hanno dato un consenso informato

Altri sistemi appongono un avviso  in fondo al messaggio, in cui chiariscono che la risposta e' confezionata dal sistema di IA e quindi poi supervisionata dai medici. “Non vedo personalmente nessuna contro-indicazione ad essere trasparenti ” ha dichiarato il Dr. Christopher Longhurst, il direttore sanitario dell'UC San Diego Health"

Ma , secondo altri decisori e manager,  dichiarare ai pazienti che il messaggio ha un contenuto di I.A.  potrebbe far sottovalutare la consulenza clinica, anche se è stata approvata dai loro medici.

Inoltre altri sistemi — ad es gli Stanford Health Care, U.W. Health, U.N.C. Health and N.Y.U. Langone Health — hanno deciso che l'essere trasparenti e chiedere il consenso informato avrebbero prodotto nei pazienti più danni che benefici. Questi amministratori sono preoccupati per due elementi: a) che l'inserimento dell'avviso possa divenire una scusa per inviare , da parte del medico, messaggi senza un'approfondita valutazione; b) che, dopo questo avviso esplicito ai pazienti, i messaggi di ritorno, sebbene supervisionati dal medico, possano sminuire il consiglio medico


Vi è un'  assenza di rigide regole governative e di direttive etiche:  ciò permette ad  ogni diverso sistema sanitario di decidere come valutare  la sicurezza dello strumento e se informare o meno  i pazienti sul suo utilizzo.

La tendenza verso l'uso di MyChart preoccupa alcuni esperti che temono che i medici potrebbero non essere abbastanza vigili da individuare errori potenzialmente pericolosi nei messaggi di rilevanza medica redatti dall’intelligenza artificiale.


Ed in effetti MyChart non è immune da errori e dalle tipiche "allucinazioni" di questi chatbot  LLM .

Il Dr. Vinay Reddy, un medico di famiglia della organizzazione UNC health,  ha citato un caso in cui in cui il paziente chiedeva se aveva bisogno di vaccino per la B. Il sistema di IA  ha con sicurezza risposto che il paziente aveva ricevuto il vaccino e aveva fornito le date delle dosi del vaccino e dei richiami. Ciò era completamente falso e l'errore dipendeva dal fatto che il sistema di IA non aveva accesso alla parte di database riguardante i vaccini.

I medici che hanno rivisto sistematicamente le risposte di MyChart hanno riscontrato errori nel 7% dei casi.

E ciò che è più allarmante è il riscontro che circa un terzo delle risposte sono arrivate ai pazienti senza alcuna correzione , nemmeno formale, da parte dei medici. Cresce un sospetto: magari per mancanza di tempo alcuni medici non hanno supervisionato le risposte automatiche e le hanno fatte fluire, intatte, verso i pazienti

Ciò che è ulteriormente preoccupante è che vi è stato un progetto avanzato per far in modo che lo strumento possa essere configurato per far dettare la risposta scritta dal chatbot  con la voce, clonata, del singolo medico; ma il progetto ha incontrato resistenze da parte degli stessi medici


Al di là delle questioni di sicurezza e mancata trasparenza , alcuni bioeticisti hanno manifestato una importante preoccupazione : " è proprio questa la IA che vogliamo usare in medicina?

Daniel Schiff, co-direttore del Governance and Responsabile dell'IA Lab presso la Purdue University è preoccupato. Questo tipo di Intelligenza Artificiale sembra intrufolarsi nei sempre meno frequenti momenti in cui pazienti e medici potrebbero effettivamente comunicare tra loro direttamente, in prossimità. "Anche se fosse impeccabile, vorresti automatizzare uno dei pochi modi in cui interagiamo ancora tra di noi? "


II) Miei brevi Commenti ( di Francesco Del Zotti)

La comunicazione elettronica ed i suoi prodotti più avanzati (la IA) lasciati senza briglia possono rovinare per sempre la Medicina Ippocratica , praticata da noi medici da 2400 anni.

Rileggendo quanto sopra descritto la cosa più incredibile è notare come i manager e gli ingegneri che architettano tale stravolgente sistema sembrano vedere come un ostacolo il dire la verità al paziente ( si sta usando un chatbot al posto del medico; e non lo si dice al paziente) . Si sminuisce così il peso del Consenso Informato, che,invece, a mio parere, dovrebbe diventare sempre più centrale in medicina, visti questi straordinari stravolgimenti. Nello stesso tempo i responsabili dei cambiamenti, consci della continua importanza di un rapporto personalizzato, non si stanno facendo scrupolo nel provare a trasformare il testo automatizzato in voce clonata del medico, magari non avvertito di ciò.

Grave mi sembra poi il fatto che alcuni medici, presi negli ingranaggi degli automatismi e del risparmiare tempo ( una riproposizione per medici di "Tempi Moderni" di Chaplin) potrebbero inviare un terzo dei messaggi senza nemmeno visionarli.

Quanto poi alle allucinazioni ed errori dei chatbot LLM, si ribadisce una notizia ben nota.

Qualcuno potrebbe obbiettare: ma anche i medici commettono errori. Qui ci sovviene l'ultima frase illuminante dell'articolo: "Anche se fosse impeccabile, vorresti automatizzare uno dei pochi modi in cui interagiamo ancora tra di noi? " .

Sono convinto che, anche dopo la IA, i pazienti ed i medici vogliano essere loro ad assumersi la responsabilità della verità errori e della responsabilità interpersonale e gestionale degli atti medici. Aristotele insegna: gli uomini sono per scelta animali sociali e nessuna macchina potrà sostituire questo anelito.


lunedì 3 marzo 2025

Altruismo solo se contatto. Ricerca su Science

Un eccezionale video legato ad una ricerca su Science  mostra un topo utilizzare, per contatto, tutte le manovre di rianimazione affianco ad un topo apparentemente morto o in coma; il video ci  dimostra che anche tra i topi l'altruismo viene alimentato dal "contatto di prossimità". 

Il video lo potete vedere a questo link

https://tech.everyeye.it/notizie/topi-cercano-rianimare-compagni-svenuti-video-commuovere-781568.html

Secondo la ricerca  pubblicata sull'autorevole Science : Science DOI: 10.1126/science.adq2677   questo comportamento altruistico dipende dall'ossitocina, che ha anche note azioni nell'uomo (ad es nel legame madre-figlio)

Ora mi/vi chiedo: lo sviluppo della telemedicina e dei contatti per messaggistica o per solo telefono non potrebbero compromettere la "medicina di prossimità", colonna di tutti i tempi di una professione legata agli incontri in piccoli spazi ( ambulatorio, stanza del domicilio) e contatti fisici connessi  all'esame obiettivo?


Francesco Del Zotti

domenica 2 marzo 2025

Sveglia Cellulare bloccata da Algortimi misteriosi... E se succede anche in Medicina?

Per diversi giorni la mia sveglia, su App da cellulare, non ha funzionato. Pensavo ad un mio errore.  L'ultima volta che non ha funzionato l'avviso del sistema operativo mi ha detto il perché: avevo per errore schiacciato oltre al tasto  sveglia,   quello immediatamente superiore "non disturbare". 

Quindi il sistema operativo  del mio cellulare  "smart" ha deciso da solo che il "non disturbare" prevalesse sul mio comando "sveglia alle ore X" . Inquietante. Dal giorno dopo ho comprato dai cinesi con 5 euri una comune sveglia con unica batteria: è fatto di antica meccanica, dedicata ad una sola funzione: e non tradisce mai. 

Se trasliamo questo qui pro quo al sistema medico, potremmo avere:  da una parte un algoritmo che tiene conto si' delle nostre decisioni ( paziente acuto e fragile da Non ricoverare, perché magari conosciamo i suoi desiderata -evitare il più possibile il ricovero- e ci fidiamo dei suoi parenti o care giver);  ma dall'altra parte avremo uno score algoritmico pro-ricovero. Risultato? Prevale lo score dell'algoritmo che attiva una squadra del 118 e fa ricoverare il paziente, surclassando le nostre decisioni mediche

Ahime non è fantascienza. E' uno scenario sempre più probabile, arrestabile solo dall'uscire dalla nostra passività e complesso di inferiorità rispetto ai vari tecnicismi. Ok, la tecnica, ma l'ultima decisione deve spettare al medico che esercita una professione le cui regole hanno 2400 anni, mentre l'Informatica e la Rete e i suoi tecno-baroni-padroni non hanno più di 40 -50 anni.


Francesco Del Zotti 

lunedì 3 febbraio 2025

S-fascicolo sanitario italiano sul Lancet

 

 

Mio commento (Del Zotti)  introduttivo alla sintesi dell’articolo dell’epidemiologo Bianchi ( su DOMANI) , che riprende le recenti critiche del LANCET alla telematica sanitaria italiana

 

Care colleghe e cari colleghi 

Prima di presentarvi una sintesi dell'articolo dell’epidemiologo dr Bianchi, sul DOMANI che commenta l’editoriale del LANCET  di pochi gg fa ( critica pesante al FSE a spezzatino italiano), permettetemi  di citare due passaggi del mio libro (la Rete e l'assalto alla Medicina Confidenziale) che comprendono commenti a  due affermazioni legate a questa polemica sollevata da Lancet e da Bianchi :

a) le frasi successive prendono spunto dal commento  della prof.ssa Caldicott, per anni una sorta di  Ombudsman della privacy per SSN della UK:

Viviamo in una situazione contraddittoria: con la parola d’ordine di condividere tutti i dati di tutti i cittadini  (con l’attivazione del FSE) , così si permette una grande pesca a strascico di dati nominativi, in eccesso a quel principio di parsimonia sottolineato da Dame Caldicott e dal GDPR. 

Nello stesso tempo assistiamo a blocchi rigidi di passaggi di informazioni ineludibili  per alcuni pazienti fragili, o per pazienti potenzialmente a rischio per loro e per gli altri, ove la privacy e’ meno importante della necessità di condivisione . L’esempio più illuminante lo possiamo derivare da un articolo  del giornalista Stefano Iannaccone del quotidiano Domani del 15 maggio 2022: non esiste ancora in Italia un incrocio tra il database delle forze dell’ordine sul possesso d’arma da fuoco e il database sanitario sui pazienti con  chiara storia di seri disturbi psichiatrici. Ne sanno ahime qualcosa le centinaia di vittime causate dal pilota tedesco omicida-suicida, ben noto alle psichiatrie territoriali prima del noto tragico volo.

 

La seconda affermazione è  del noto storico Harari che ci fa capire che la condivisione dei delicati dati medici non è un fine assoluto; ma che è altrettanto importante della riservatezza dei dati sensibili (ad es medici) , soprattutto quando ( mia nota: sempre più spesso) essa è gestita da Poteri pubblici e privati Non trasparenti. Harari afferma:

"Non bisognerebbe permettere mai che troppi dati siano concentrati in un unico posto. Nè durante l’ epidemia né quando sarà finita. Il monopolio dei dati può aprire la strada a una dittatura. Quindi se  si raccolgono dati biometrici sulle persone per fermare la pandemia, a farlo dovrebbe essere un autorità sanitaria indipendente, non la polizia. E i dati raccolti dovrebbero essere tenuti separati da altri database dei ministeri e delle multinazionali. Certo, questo può creare ridondanze e ineffìcienze. Vogliamo prevenire l’ascesa della dittatura digitale? Manteniamo le cose almeno un pò inefficienti"

 

Per il fascicolo sanitario elettronico si doveva partire con maggiore e lenta progressività: dai pazienti fragili e soli, e magari in primo luogo con sistemi cartacei (vedi a Milano il sistema cartaceo “Busta Rossa”, accanto al contatore,  o della card cartacea nel portafogli; o il sistema con brevi info mediche su  medaglie su collari dell'internazionale  "Medic-alert" ;  e quindi solo dopo applicare il FS-Elettronico a questi pazienti fragili. E solo, alla fine, con le massime garanzie di ingegneria della sicurezza ( che Non mi sembrano siano  state finanziate a dovere) estendere il FSE a tutti, consapevoli del rischio di diffusione di dati molto sensibili che tali sistemi elettronici hanno (vedi il moltiplicarsi di hackeraggi dei dati medici di interi ospedali, asl, regioni) .

E invece: i pazienti soli continuano a morire soli, scoperti morti dopo settimane, nonostante il FSEregionale.

 

Bisogna inoltre  notare che i Sistemi SIO e sistemi elettronici sono guidati o controllabili da ditte internazionali non sempre all'altezza;  per non parlare dei   FSE regionali, disorganizzati tra loro e  con il sospetto, speriamo infondato,  di essere forniti,  parzialmente o totalmente, in pasto a  multinazionali americane  ( ad es  Google, FB,Openai) .Tutto ciò è  il modo migliore per perdere la padronanza del sistema sanitario pubblico e dare ancora più forza a Musk, FB, Trump e loro sudditi nazionali in Europa. E Come sostiene dopo Bianchi, questo è il miglior sistema per frenare Audit e Ricerche, su basi anonimizzate, a tutto svantaggio della ricerca e salute dei pazienti.

Insomma le questioni di telematica sanitaria sono intrecciate con la necessita di manifestare, come medici e come cittadini,  per contestare apertamente questo modo autocratico di certe regioni o  "agenzie di garanzia"  pubbliche (e certi  tecno-baroni-medioevali-imperialisti ,spesso degli USA) , che stanno lasciando i database o troppo aperti o penetrabili ove a loro conviene (vedi gli sviluppi della IA); o  troppo chiusi, ove siano i medici a proporre e sviluppare progetti di Audit e ricerca nell’interesse della collettività.

 ************

Sintesi dell'articolo dell'articolo sul quotidiano DOMANI (25 gennaio 25)  dell'epidemiologo Bianchi 

Secondo Bianchi l'editoriale del Lancet del gennaio 2025 "Il sistema dei dati sanitari italiani è rotto" critica severamente il sistema informativo sanitario italiano. Ecco secondo Bianchi  i punti principali:

Problemi principali:

Frammentarietà dei dati sanitari: Non vi  un sistema unificato per la condivisione delle cartelle cliniche elettroniche tra medici ospedalieri e tra Medci ospedlaieir e MMG. . Essa é peggiorata dalla Disparità tra le 20 regioni, che compromette la qualità della digitalizzazione e sua standardizzazione.

Questa scarsa qualità della telematica italiana è ancora meno comprensibile se si pensa che . vi una spesa per la sanita digitale di 1,8 miliardi di euro per la sanità digitale:  sono state valutate le relative spese del 2022 che sono ulteriormente aumentate del 7% rispetto ai dati del 2021.

 

Riprendendo  Bianchi, l’editoriale del Lancet sottolinea la grave difficoltà dei ricercatori italiani, i cui  protocolli non poche volte sono bloccati o dai comitati etici o dal garante della privacy o dai DPO. Questi blocchi sono tipici dell’Italia:  mentre in grandi Paesi europei si segue solo “l’interesse legittimo” in Italia spesso si prevede che vi sia  consenso individuale ( con logistica quasi impossibile)  anche per studi su base anonimizzata e con casistica larga e magari multi-regionale, ove è in pratica del tutto improbabile il riconoscimento del singolo paziente.

 

Ciò inoltre comporta un danno proprio nel Paese ,l’Italia, che ahime’ vanta il triste primato di aree più inquinate di Europa ( in particolare nel nord Italia)

E si badi bene questi blocchi probabilmente vanno anche oltre il regolamento GDPR, che valorizza sì la privacy ma anche una certa libertà di allentare  i vincoli , in caso  di ricerche di interesse pubblico

E inoltre si assiste a due   paradossi :a)  non poche volte si nega la ricerca su base anonima ai ricercatori mentre si consente il loro uso a livello regionale o statale ai soli  scopi economico-gestionali ; b) si negano i dati ai ricercatori, ma poi non poche volte non si riesce a proteggere i delicati dati sanitari che magari vengono hackerati (succede..) e adoperati sfruttando, ahime, il cognome e nome e dati medici nominativi delicati dei pazienti

E purtroppo queste frammentazioni e questi  blocchi a sfavore dei ricercatori e di chi fa Audit sui dati medici, potrebbero ulteriormente peggiorare all’arrivo, a breve, della legge sull’autonomia differenziata,

In buona sostanza questo editoriale evidenzia  le gravi problematiche del sistema telematico sanitario italiano nonché  la necessità di un miglioramento urgente.

*******************************************

cordiali saluti

Dr Francesco Del Zotti – Verona

-Già membro Commissione ICT della FNOMCeO
-Autore del libro “La Rete e l’assalto alla Medicina Confidenziale -  Cause e Contromisure – fine 2022) 
- mio blog:
https://qualereteinsanita.blogspot.com
      ulteriori ultimi post dicembre-gennaio 25:   

  • Wc-elettronici anti-igienici
  • Sharing a senso unico
  • Test antidroga: Non in rete con i medici
  • Facilitazioni complicate





***************************

 


venerdì 10 gennaio 2025

WC-elettronici anti-igienici

Capita più volte di entrare in bagno e sedersi sul water. Sappiamo che un tipo di deiezione,più solida, ha bisogno in medic dia almeno 3-5 minuti. Ebbene, in molti bagni la luce si spegne anche solo dopo 1-2 minuti.

E allora molti hanno escogitato l'escamotage: alzare le mani e muoverle per riattivare il sensore elettronico delll'accendi-luce.

Ma alcuni hanno incontrato una variante peggiorativa: in bagni lunghi i sensosri sono posti proprio dopo la porta ; e quindi il nostro agitare di arti non funziona

Prima , con la sola elettrcità, accendevi e spegnevi la luce. Ora nell'era dell'elettronica, dell'informatica della Rete imperano automatismi indipendendti dai nostri bisogni, velocità e l'imperativo si risparmiare a tutti i costi. E così diventa sempre più difficile completare il proprio bisogno senza rischiare infezioni oro-fecali da buio

Francesco Del Zotti


Sharing a senso unico

 care colleghe e cari colleghi, cari lettori  e care lettrici 

Sento da vari colleghi specialisti che non poche volte arrivano allo specialista  pazienti che hanno eseguito solo un test di base. Faccio un esempio: invio dal MMG  all'ematologo con il solo Protidogramma alterato e quindi sospetta gammopatia monoclonale.  Succede allora che il medico specialista  deve richiedere al paziente gli esami annessi (ad es : calcemia- creatinina ed egfr, dosaggio della componente monoclonale, delle catene leggere libere e la proteinuria delle 24 ore) e quindi una nuova visita specialistica per controllare i risultati

Eppure ci sono già i mezzi per aiutare i MMG a richiedere queste batterie di esami. In ogni software il MMG ha una libreria di liste di esami collegate a singoli esami (in parte date dalla softwarehouse;  e, più importante, molti protocolli diversi  da svariati  MMG).
Però, mentre e' diventato semplice e obbligatorio trasmettere dati sensibili di vario genere alle autorità pubbliche, non sempre le softwarehouse permettono tecnicamente e/o incoraggiano i MMG a trasmettersi queste batterie-protocolli.

Insomma questo è ancora un esempio dell'ipertrofia dello sharing (condivisione) dati bottom-up (dal MMG alle istituzioni), mentre è ancora ipotrofico il passaggio di metodi di lavoro e protocolli tra MMG e MMG, soprattutto quando questi protocolli sono creati da loro stessi.

Francesco Del Zotti 

domenica 5 gennaio 2025

Test antidroga: NON in rete con medici

 In questo blog ci occupiamo dei difetti e qualità della Rete in Medicina. In genere la Rete si interpreta in senso stretto, come un frutto dei server di Internet. Ma vi è anche un senso largo del concetto di Rete: una buona Rete non deve escludere ma includere sia l'intervento tecnico sia quello umano, sia quello professionale.

Ebbene le nuove regole del Codice Stradale sono un pericoloso precedente. Sembra che non serva più la valutazione di un medico sull'alterazione di vigilanza , in contemporanea o in stretto seguito al test su salive o urine da parte delle forze dell'ordine. Sono sufficienti test dei vigili, poliziotti o carabinieri per comminare multe  sino a 6000 euri, procedimenti penali, ritiro della patente. Il Test valuta non solo alcool, eroina, cocaina, ma anche alcuni farmaci (molti usano le benzodiazepine o alcuni antidolorifici per scopi medici non banali; e magari senza apparenti alterazioni sullo stato di guida).

Vi è inoltre difformità tra i test e gli strumenti usati dalle varie forze dell'ordine, soprattutto in merito al numero e tipo delle droghe o farmaci testati, e anche al livello ritenuto "positivo". 

Vi sono ulteriori paradossi segnalati nei giorni scorsi. Se un cittadino beve un 1 litro di vino dopo pochi giorni l'alcool test sarà negativo. Se un cittadino assume cannabis light (sino a poco tempo fa vendibile in negozi ad hoc), egli risulterà positivo anche a distanza di molti giorni dall'assunzione e anche se quella bassa dose non procura alterazioni di vigilanza alla guida 

Ieri, 4 gennaio 25, su un articolo sul quotidiani DOMANI la nota giurista Vitalba Azzolini ha espresso i seguenti dubbi:

  • Test antidroga: La positività al test salivare, anche a distanza di giorni dall'assunzione, comporta sanzioni severe, indipendentemente dall'effettivo stato di alterazione psicofisica alla guida. Ciò colpisce anche pazienti che usano farmaci con prescrizione medica.
  • Sorpasso ciclisti: La norma sul sorpasso dei ciclisti con distanza di 1,5 metri, è inefficace perché subordinata alle "condizioni della strada", frase che permette ampia discrezionalità. Ciò in qualche modo annulla  la regola e crea rischio ai ciclisti.
  • Zone 30: la norma prevede il divieto di installare autovelox nelle zone urbane con limite inferiore a 50 km/h . Il che rende inefficaci le Zone 30 (decise da non poche città); ciò può procurare aumento delle vittime in città (in particolare pedoni o ciclisti)

In sintesi, il nuovo Codice della Strada sembra più orientato alla repressione che alla prevenzione, con norme formulate in modo ambiguo o inefficace o addirittura rischiose. Tutto ciò crea  dubbi sulla sua reale utilità per la sicurezza stradale. Anzi alcune fonti (in particolare l'associazione ASAPS) riferiscono o numeri uguali o all'anno scorso o un lieve aumento di  morti in città dopo il varo della legge ( https://www.ilpost.it/2025/01/03/codice-della-strada-morti-incidenti-salvini/) , fermi restando i limiti di valutazione in uno o l'altro senso, visto che la legge e' di poche settimane fa.


Infine, siamo all'ennesima pericolosa esclusione del ruolo medico dalla combinazione Test (o device) e operatori non medici (in questo caso le forze di polizia). Scompare, infatti, la necessità di valutare lo "stato di alterazione psico-fisica", che al meglio è eseguita da un medico. Un'esclusione che permette si' più rapide decisioni repressive, ma non poche volte a danno non solo del ruolo medico ma della salute fisica e psicosociale dei pazienti. In effetti, per restare alle conseguenze economiche e psicosociali quanti pazienti dovranno subire stress e  sborsare migliaia di euri ai legali per poi ,magari, vedersi annullate multe e pene?

Francesco Del  Zotti
(ricordo che chi ha account Google può rispondere a questo pezzo . La risposta sarà accettata dopo la moderazione opportuna.)