Skip to main content

Una chat AI può essere terapeutica e aiutarci a sostenere la nostra salute globale?

Rischi e benefici dell’intelligenza artificiale in ambito sanitario. I dati dell’Osservatorio Sanità Digitale, la posizione dell’Ordine degli Psicologi

L’intelligenza artificiale (AI) sta rivoluzionando le nostre vite. Al Forum OCSE sul Benessere, la sua invenzione è stata paragonata a quella della scrittura, per la portata innovativa, i cui sviluppi sono ancora difficili da immaginare. Gli strumenti dell’informatica generativa stanno cambiando il mondo del lavoro, dell’insegnamento, ma anche della vita privata e della sanità. Molte persone cominciano a sperimentare le chat terapeutiche basate sull’AI, sempre più cittadini chiedono informazioni per la loro salute ai chatbot, attraverso i quali i giovani, addirittura, cercano supporto psicologico. L’Ordine degli Psicologi manifesta la sua preoccupazione e la nuova Ricerca dell’Osservatorio Sanità Digitale del Politecnico di Milano getta luce sui rischi e benefici di queste tecnologie.

Intelligenza artificiale, sanità e salute: la nuova Ricerca dell’Osservatorio Sanità Digitale 

L’intelligenza artificiale generativa permette ormai la simulazione di conversazioni umane, come nel caso di ChatGPT o, in ambito medico, di Med-PaLM, con importanti opportunità di applicazione anche in ambito sanitario. Queste nuove tecnologie destano, parallelamente, profonde preoccupazioni, soprattutto dal punto di vista etico e legale, per esempio nell’ambito della privacy. La nuova Ricerca dell’Osservatorio Sanità Digitale del Politecnico di Milano approfondisce i rischi e benefici dell’intelligenza artificiale per la sanità.

Uno strumento potente, ma adatto per chi?

Secondo la Ricerca, i medici tendono a considerare l’AI un promettente strumento per velocizzare diagnosi e trattamenti: il 72% degli specialisti e il 66% dei medici di medicina generale pensano che rafforzerà le capacità di accuratezza e personalizzazione delle cure. Dall’altra parte, i medici temono che, con l’avvento dell’AI, venga tenuto in minore considerazione il valore del giudizio clinico basato sull’esperienza personale.

Parallelamente, i professionisti nutrono dubbi anche su un uso diretto dello strumento da parte dei pazienti, per esempio per il rischio di ricevere consigli sbagliati. Tuttavia, la Ricerca testimonia che più della metà dei cittadini sarebbe interessata a usare chatbot per ricevere informazioni veloci in ambito sanitario. Dai dati risulta che il 23% dei cittadini nell’ultimo anno ha usato l’AI generativa per questioni di prevenzione e stili di vita, il 19% per problemi di salute e il 15% su farmaci e terapie. Nel 40% di questi casi le informazioni ottenute hanno ridotto la necessità di una comunicazione diretta col medico.

La centralità del rapporto umano in terapia

Se l’avvento dell’AI può essere di grande supporto al medico, per esempio fornendo velocemente una grande mole di dati e informazioni per prendere decisioni rapide e personalizzare le terapie dei pazienti, dalla Ricerca dell’Osservatorio Sanità Digitale del Politecnico di Milano si rinnova la certezza che l’intelligenza artificiale non possa sostituire il fondamentale rapporto medico-paziente, alla base di una buona alleanza terapeutica.

Chiedere aiuto a una chat: la preoccupazione dell’Ordine degli Psicologi

Una chat AI può essere terapeuticaIl Presidente Nazionale dell’Ordine degli Psicologi David Lazzari ha espresso una profonda preoccupazione in merito al diffondersi dell’abitudine di chiedere aiuto a una chat, invece che a uno psicologo. Secondo una stima di Mattia Della Rocca, docente di Psicologia degli Ambienti Digitali all’Università di Tor Vergata, almeno il 20% della Generazione Z potrebbe aver usato almeno una volta l’AI come sostituto della terapia.

“Oggi molti giovani sono smarriti e disorientati e hanno bisogno di ascolto, dichiara Lazzari. “Serve una rete pubblica di psicologia accessibile, come lo psicologo scolastico o lo psicologo di base. Senza un servizio pubblico diffuso, il primo ascolto spesso non è garantito e non tutti possono permettersi un aiuto privato a pagamento. C’è un bisogno insoddisfatto”. Questo può portare all’uso dell’intelligenza artificiale per chiedere un supporto psicologico, anche quando questa non è stata programmata a tale scopo.

Lazzari mette in guardia anche da una psicoterapia simulata dall’algoritmo, in primis per l’assenza di comunicazione non verbale, fatta di gesti, pause, espressioni del volto e tono di voce. L’intelligenza artificiale non può basarsi sull’esperienza corporea della vita, che caratterizza l’essere umano, né sperimentare l’equilibrio tra cognizione ed emozione tipico della nostra specie. Inoltre, l’AI tende a dare risposte standardizzate, senza riconoscere l’unicità di ogni persona, per la quale un comportamento o una stessa parola può avere diversi e infiniti significati.

Lazzari dichiara:

È fondamentale introdurre normative che garantiscano maggiore trasparenza nell’utilizzo di questi strumenti.

Il Presidente ha partecipato all’assemblea delle Professioni Italiane, che riunisce gli Ordini professionali nazionali. Nell’occasione, è stato attivato un apposito gruppo di lavoro, con l’obiettivo di definire ordinamenti pubblici e deontologici che tengano conto della realtà dell’intelligenza artificiale, sempre più impattante nella nostra vita.

Qual è il ruolo della scuola e dell’educazione?

Lazzari sottolinea anche l’importanza della scuola, su questo tema:

Uno dei ruoli chiave della scuola dovrebbe essere quello di educare i ragazzi a un uso consapevole dell’intelligenza artificiale. Dobbiamo sviluppare una cultura in cui la tecnologia sia uno strumento utilizzato con estrema consapevolezza.

Per un uso equilibrato, etico e orientato al bene comune della tecnologia, l’educazione si conferma la prima forma di consapevolezza e prevenzione. Di fronte alle potenzialità e rischi dell’intelligenza artificiale, è necessario rafforzare soprattutto l’intelligenza emotiva di giovani e adolescenti, potenziando le competenze interiori, come la resilienza e l’autoregolazione, centrali per esempio nel programma psicopedagogico di Prefigurare il Futuro di Fondazione Patrizio Paoletti. Il progetto diffonde strumenti teorici e pratici per favorire l’alfabetizzazione emotiva e rafforzare le risorse interiori. Prefigurare il Futuro entra nelle scuole proponendo un percorso formativo dedicato a tutta la comunità educante, compresi studenti, genitori e personale docente.

Un uso consapevole e ragionato dell’intelligenza artificiale ci permette di disinnescare il pericoloso pilota automatico dei facili entusiasmi o condanne, aprendoci con cautela anche alle preziose applicazioni dell’AI per l’autoeducazione, valorizzate per esempio nel programma Teachers Outreach di Fondazione Patrizio Paoletti, che contribuisce a contrastare la povertà educativa tramite sistemi che integrano intelligenza artificiale e Pedagogia per il Terzo Millennio, per garantire un’educazione di qualità in tutto il mondo. Le parole d’ordine sembrerebbero restare, quindi, consapevolezza, moderazione ed equilibrio. E commenta Lazzari:

Dobbiamo essere noi a utilizzarla per i nostri scopi e non possiamo lasciare che sia lei a utilizzarci per i suoi. Dobbiamo tenere bene a mente questo principio.


  • AUTOSTIMA

    Come promuoverla
    in classe e in famiglia

    Compila il form
    e guarda subito il webinar

    "*" indica i campi obbligatori

    Dati Anagrafici*

Quali sono i limiti e i benefici dell’AI per il benessere psicologico?

Uno studio pubblicato su Frontiers in digital health sottolinea i limiti e le potenzialità dell’intelligenza artificiale per supportare la salute mentale. I chatbot sono disponibili 24 ore su 24, 7 giorni su 7, e accessibili tramite telefono cellulare. Questo consente alle persone di ottenere veloce assistenza, superando le barriere finanziarie e logistiche. La ricerca sottolinea tuttavia la limitata relazione terapeutica di queste tecnologie, che può portare a un malinteso, con una sovrastima delle effettive capacità di supporto. Il rischio sarebbe addirittura di esacerbare il disagio psicologico e contribuire alla crisi globale di salute mentale.

Dall’altra parte, l’intelligenza artificiale ha la possibilità di raccogliere e processare un’enorme quantità di dati in brevissimo tempo. Nel discernimento e uso di quei dati è fondamentale il ruolo della mente umana, col suo pensiero critico ed empatia, in grado di cogliere eventuali errori o bias algoritmici e orientare l’uso dell’AI verso un fine utile ed etico.

Il veloce accesso a una quantità ingente di dati e le possibilità generative dell’intelligenza artificiale possono perfino aiutarci ad approfondire il mondo delle emozioni, attraverso immagini e video realizzati con avatar, come nelle voci del Glossario di Intelligenza Emotiva di Fondazione Patrizio Paoletti. L’intelligenza artificiale può essere quindi a supporto dell’intelligenza emotiva, ma (almeno per ora) non può farne esperienza diretta. Ne deriva che non può sostituire la relazione umana, un dialogo pieno e completo, né il sostegno professionale di uno psicologo.

Seppure l’intelligenza artificiale rappresenti uno strumento che offrirà orizzonti di evoluzione tuttora inimmaginabili per la nostra vita quotidiana, è necessario ricordare che essa deve restare a servizio dell’umanità, in uno sviluppo tecnologico che mette al centro l’essere umano e il Pianeta.

    Non temere mai di chiedere aiuto!

    Tutti i contenuti di divulgazione scientifica di Fondazione Patrizio Paoletti sono elaborati dalla nostra équipe interdisciplinare e non sostituiscono in alcun modo un intervento medico specialistico. Se pensi che tu o qualcuno a te vicino abbia bisogno dell'aiuto di un professionista della salute mentale, non esitare a rivolgerti ai centri territoriali e agli specialisti.


  • GLI ADOLESCENTI VANNO AIUTATI.
    PRIMA CHE SIA TROPPO TARDI.

Bibliografia
  • Khawaja, Z., & Bélisle-Pipon, J. C. (2023). Your robot therapist is not your therapist: understanding the role of AI-powered mental health chatbots. Frontiers in digital health5, 1278186. https://doi.org/10.3389/fdgth.2023.1278186
Sitografia
  • https://www.osservatori.net/blog/sanita-digitale/intelligenza-artificiale-in-sanita-sfide-opportunita/
  • https://www.facebook.com/OrdinedegliPsicologi/posts/il-presidente-nazionale-dellordine-degli-psicologi-david-lazzari-denuncia-un-fen/1026301116198346/
  • https://www.ilmessaggero.it/tecnologia/news/david_lazzari_ordine_degli_psicologi_le_macchine_tutti_uguali_ecco_perche_non_ci_capiranno_mai-8632312.html?fbclid=IwY2xjawIb8_JleHRuA2FlbQIxMAABHQYNRzx-OFOzLOmpI-qTu4ix63VakBvmn55a4hACTHUWBNV8eChGocSong_aem_azL70wm6pIyF7AZzJap78w
  • https://www.ilmessaggero.it/italia/chatgpt_psicologo_giovani_rischi_allarme_psicologi-8640463.html
  • https://www.psy.it/17454-2/
Immagini

Sii parte del cambiamento. Condividere responsabilmente contenuti è un gesto che significa sostenibilità

Alleniamo l’intelligenza emotiva: che emozione ti suscita questo articolo?

Loading spinner

Potrebbe interessarti

Più resilienti a stress ed emozioni negative

Fondazione Patrizio Paoletti al Workshop Europeo di Neuro-psicologia Cognitiva

Più resilienti a stress ed emozioni negative muovendosi verso il Sé più profondo: sono questi i ris…

    Iscriviti alla newsletter

    NEWSLETTER GEN

    Modulo per l'iscrizione alla newsletter FPP

    Nome(Obbligatorio)
    Email(Obbligatorio)
    Privacy Policy(Obbligatorio)
    Questo campo serve per la convalida e dovrebbe essere lasciato inalterato.