L'intelligenza artificiale sta ridisegnando la relazione tra tecnologia e cura. Riteniamo che questo ridisegno meriti una riflessione più profonda di quella che il mercato attuale offre.
Negli ultimi due anni abbiamo assistito a un'esplosione di strumenti che promettono di "risolvere" la salute mentale attraverso l'automazione. Chatbot che sostituiscono terapeuti. LLM generici riproposti come consulenti psicologici. Piattaforme di trascrizione che trattano dati clinici come qualsiasi altro testo.
Parere nasce da una domanda diversa: cosa succederebbe se l'intelligenza artificiale fosse progettata non per sostituire il terapeuta, ma per restituirgli le risorse cognitive che il lavoro amministrativo sottrae alla relazione clinica?
Questa pagina spiega come stiamo rispondendo a quella domanda.
Nel 2024, milioni di persone hanno usato ChatGPT, Claude, Gemini come sostituti improvvisati del supporto psicologico. I numeri sono impressionanti: secondo alcune ricerche, fino al 40% degli utenti di LLM generalisti li interroga su temi di salute mentale, relazioni, crisi personali.
Questa tendenza solleva questioni che vanno oltre la semplice inadeguatezza tecnica. Quando un sistema viene consultato per questioni psicologiche senza essere stato progettato per questo scopo, si crea un vuoto di responsabilità. I provider di questi modelli (OpenAI, Anthropic, Google, Meta) non hanno obblighi deontologici verso chi li usa. Non esistono barriere etiche strutturali. Non c'è supervisione clinica. Il modello economico premia l'engagement, non l'esito terapeutico.
Il risultato è prevedibile: persone vulnerabili ottengono risposte superficiali a problemi complessi, sviluppando l'illusione di un supporto che in realtà non esiste. Nel migliore dei casi, questa dinamica è inutile. Nel peggiore, è dannosa.
Mentre i chatbot erodono il perimetro della pratica clinica offrendo simulacri di ascolto, i terapeuti professionisti affrontano un carico di lavoro che rende insostenibile mantenere la qualità della cura. Per gestire solo quindici pazienti alla settimana significa tenere a mente:
Questo carico cognitivo nascosto costringe molti professionisti a scegliere tra due opzioni insoddisfacenti: limitare il numero di pazienti (riducendo la sostenibilità economica della pratica) oppure accettare livelli di stress che conducono al burnout.
Esiste un modo per usare l'intelligenza artificiale che non sostituisca il terapeuta con un automa, ma che alleggerisca il carico amministrativo senza compromettere la qualità clinica?
Parere è il nostro tentativo di risposta.
Nel primo caso, la tecnologia funziona come memoria esterna, assistente organizzativo, strumento di pattern recognition. Il terapeuta mantiene il controllo epistemico: interpreta, valida, decide. L'AI evidenzia, suggerisce, organizza.
Nel secondo caso, quello dei chatbot diretti al pubblico, la tecnologia assume responsabilità cliniche che non può sostenere. Offre diagnosi che non può validare, suggerisce interventi senza comprensione del contesto sistemico, crea l'illusione della relazione terapeutica senza averne gli elementi costitutivi.
Parere appartiene deliberatamente alla prima categoria.
Ogni funzionalità di Parere è costruita attorno a questo principio: il sistema propone, il terapeuta dispone.
Memoria clinica: Parere aggrega informazioni da tutte le sedute di un paziente, ma non interpreta autonomamente il significato di quell'aggregazione. Quando un terapeuta chiede "Quali progressi ha fatto Sofia negli ultimi tre mesi?", il sistema presenta dati organizzati cronologicamente, evidenzia cambiamenti nei pattern sintomatologici documentati, segnala temi ricorrenti. L'interpretazione clinica, come l'attribuzione di significato a quei pattern, la formulazione di ipotesi diagnostiche, la decisione su come procedere, resta interamente nelle mani del professionista.
Documentazione assistita: Quando Parere genera una bozza di nota clinica o una sintesi per la supervisione, sta essenzialmente riorganizzando materiale già prodotto dal terapeuta durante le sedute. La trascrizione e la sua rielaborazione è algoritmica. Il terapeuta rivede, modifica, integra, elimina. La firma finale è sua, così come la responsabilità del contenuto.
Aggiornamento cartella clinica: Se durante una seduta emerge un'informazione rilevante non presente nella cartella (un nuovo evento biografico, un cambiamento nella farmacoterapia, un'evoluzione diagnostica), Parere la segnala e propone l'integrazione. Ma l'approvazione è manuale, esplicita. Nulla entra nella cartella senza validazione diretta del terapeuta.
Questa architettura non è casuale. È il riflesso di una scelta epistemologica: le decisioni cliniche richiedono giudizio contestuale che i sistemi automatici non possono replicare. L'AI può gestire complessità computazionale (ricordare centinaia di dettagli, trovare pattern in volumi di testo), ma la complessità relazionale della terapia appartiene a un ordine diverso.
Questa impostazione ha implicazioni concrete sul design del prodotto.
Parere può fare molto più che trascrivere. Può identificare pattern ricorrenti nel materiale clinico, suggerire connessioni tra temi emersi in sedute diverse, evidenziare evoluzioni sintomatologiche nel tempo, proporre domande di approfondimento basate su quanto discusso. Può, in sostanza, funzionare come sparring partner per il ragionamento clinico.
Ma tutto questo avviene sempre in modalità consultiva, mai prescrittiva. Quando Parere suggerisce un possibile collegamento tra il materiale di oggi e una seduta di tre settimane fa, sta offrendo un'ipotesi da valutare, non una conclusione da accettare. Quando evidenzia un pattern ricorrente nelle dinamiche relazionali del paziente, sta segnalando una regolarità statistica, non formulando un'interpretazione clinica.
La differenza è qualitativa: il sistema può elaborare complessità computazionale (ricordare centinaia di dettagli, trovare co-occorrenze in volumi estesi di testo, aggregare informazioni sparse nel tempo), ma la complessità ermeneutica, dare significato a quei pattern, contestualizzarli nella storia del paziente, decidere come usarli terapeuticamente, appartiene al terapeuta.
Ciò che Parere non fa è assumere responsabilità decisionale. Non formula diagnosi autonome. Non classifica materiale clinico secondo categorie diagnostiche senza supervisione. Non suggerisce interventi terapeutici specifici come se fosse un collega con competenza clinica. Queste operazioni richiedono giudizio contestuale che il sistema non può replicare e responsabilità professionale che non può assumere.
Il risultato pratico: il terapeuta risparmia 15-25 minuti per paziente su attività amministrative e ottiene supporto attivo per il ragionamento clinico, liberando risorse cognitive per ciò che richiede la sua presenza insostituibile: la relazione terapeutica stessa.
Interessato a contribuire a questa visione?
Usare LLM proprietari (OpenAI, Anthropic, Google, Meta) per processare dati clinici significa affidare informazioni estremamente sensibili a infrastrutture controllate da entità commerciali i cui interessi non sono allineati con quelli della pratica terapeutica.
Questo disallineamento si manifesta su diversi livelli.
I modelli proprietari operano come black box. L'utente finale, in questo caso il terapeuta, non ha visibilità su come i dati vengono processati, dove transitano fisicamente, quali tracce lasciano nei log di sistema. Le policy di privacy vengono aggiornate unilateralmente. I termini di servizio cambiano senza consenso esplicito per ogni modifica.
Nel contesto della salute mentale, questa opacità è inaccettabile. I dati clinici non possono essere trattati come dati di advertising o analytics generici.
I provider di LLM hanno interesse a massimizzare il training dei loro modelli. Anche quando dichiarano di non usare i dati degli utenti per training, questa dichiarazione dipende interamente dalla loro buona fede e può cambiare in futuro. Non esistono meccanismi di audit indipendenti. La fiducia è l'unica garanzia, ma la fiducia in contesti commerciali è fragile.
La quasi totalità dei LLM avanzati è sviluppata da aziende statunitensi o cinesi. L'Europa, pur avendo prodotto regolamentazioni avanzate (GDPR, AI Act), non ha infrastruttura LLM sovrana comparabile. Questo crea una dipendenza strutturale: i dati clinici europei vengono processati su server che, indipendentemente dalla loro localizzazione fisica, rispondono a giurisdizioni extraeuropee.
L'infrastruttura attuale di Parere è interamente europea: l'applicazione gira su server tedeschi, mentre i servizi di intelligenza artificiale operano su server italiani a Milano. Questi server AI, pur appartenendo a un cloud provider statunitense, sono configurati con garanzie contrattuali specifiche:
Questo setup rappresenta un compromesso pragmatico: otteniamo capacità computazionale avanzata mantenendo controllo geografico e garanzie contrattuali robuste. Ma non ci basta.
Anche con le garanzie attuali, rimane una dipendenza strutturale da infrastruttura controllata da entità commerciali i cui interessi ultimi non sono allineati con quelli della pratica clinica. Le policy possono cambiare. I contratti possono essere rinegoziati. La fiducia, per quanto supportata da clausole legali, resta l'elemento fondante. Per questo la nostra roadmap tecnologica prevede migrazione graduale verso LLM open source (famiglia Llama, Mistral, Qwen, modelli italiani come Camoscio) che possiamo:
Questo approccio richiede investimenti significativi: infrastruttura GPU dedicata, competenze di machine learning operations, manutenzione continuativa dei modelli. Non è qualcosa che possiamo implementare durante la fase beta, quando le risorse sono limitate e le priorità sono altrove. Ma è una direzione strategica esplicita, documentata nella roadmap pubblica, con timeline orientativa e criteri di decisione trasparenti. Non è un'aspirazione vaga, è un piano con step concreti.
In un settore dove la fiducia è il fondamento della relazione terapeutica, l'infrastruttura tecnologica non può essere un punto cieco. I terapeuti devono poter spiegare ai loro pazienti non solo cosa fanno i sistemi che usano, ma come funzionano e chi li controlla.
La sovranità tecnologica non è ideologia. È una condizione necessaria per praticare una forma di cura che rispetti l'autonomia delle persone coinvolte — sia i terapeuti che i loro pazienti.
La tensione tra accessibilità economica e sostenibilità del progetto è reale. Sviluppare software di qualità professionale richiede competenze costose. Mantenere infrastruttura server robusta richiede budget ricorrenti. Offrire supporto adeguato richiede persone.
Molti progetti nel settore health-tech risolvono questa tensione attraverso modelli estrattivi: pricing elevato che esclude professionisti con budget limitati, monetizzazione indiretta tramite vendita di dati aggregati, freemium aggressivo dove le funzioni essenziali sono dietro paywall.
Vogliamo esplorare un approccio diverso.
Parere è attualmente in beta privata, completamente gratuita per tutti gli utenti senza limiti di funzionalità o numero di pazienti. Questa non è generosità strategica, è necessità epistemica: non sappiamo ancora quanto costa realmente mantenere il servizio.
I costi dipendono da variabili che scopriremo solo attraverso l'uso reale:
Una volta raccolti questi dati in forma aggregata e anonima, sapremo proporre un modello di pricing che soddisfi questi tre criteri:
Vuoi partecipare alla discussione sul pricing?
L'integrazione dell'intelligenza artificiale nella salute mentale è ancora un campo giovane, caratterizzato più da promesse che da evidenze empiriche solide. Mancano studi longitudinali sull'impatto reale di questi strumenti. Mancano dati su come l'AI assistita influenzi gli outcome terapeutici, il carico cognitivo dei professionisti, la qualità della relazione clinica.
Parere può diventare infrastruttura per produrre questa conoscenza.
Vogliamo costruire collaborazioni con università italiane e internazionali per condurre ricerca in tre aree:
Domanda di ricerca: l'uso di strumenti di memoria clinica assistita riduce il burnout nei terapeuti? Permette di gestire più pazienti mantenendo qualità della cura? Modifica i pattern di errore diagnostico?
Metodologia possibile: studi comparativi longitudinali con gruppo controllo (terapeuti che usano Parere vs terapeuti con workflow tradizionale), misurazione di variabili come carico cognitivo percepito, tempo dedicato a documentazione, indici di stress occupazionale.
Domanda di ricerca: analizzando dati aggregati e anonimizzati da centinaia di percorsi terapeutici, emergono pattern ricorrenti nelle traiettorie di miglioramento? Esistono profili sintomatologici che rispondono meglio a determinate strategie di intervento?
Metodologia possibile: analisi di cluster su dataset anonimizzati con consenso esplicito, correlazione tra variabili cliniche e outcome misurati, pubblicazione risultati in riviste peer-reviewed.
Domanda di ricerca: come percepiscono i pazienti l'uso di strumenti AI da parte dei loro terapeuti? Modifica la fiducia nella relazione? Esistono differenze generazionali o culturali in questa percezione?
Metodologia possibile: studi qualitativi (interviste semi-strutturate a pazienti i cui terapeuti usano Parere), survey quantitative su campioni ampi, analisi fenomenologica delle narrazioni raccolte.
Qualsiasi ricerca condotta usando dati di Parere seguirà protocolli etici rigorosi:
La salute mentale assistita da AI non può svilupparsi solo attraverso intuizioni commerciali o hype tecnologico. Serve base empirica rigorosa. Serve comprensione delle conseguenze sistemiche. Non solo "funziona?", ma "funziona per chi? in quali condizioni? con quali trade-off?".
Parere aspira a contribuire a questa base di conoscenza. Non come vendor che autocelebra il proprio prodotto, ma come infrastruttura che abilita ricerca indipendente e trasparente.
Uno strumento clinico non può essere sviluppato in isolamento dai professionisti che lo useranno. Le decisioni su quali feature implementare, come bilanciare semplicità e potenza, dove investire risorse di sviluppo, non possono essere prese solo internamente.
Per questo Parere opera con roadmap pubblica e meccanismi di governance partecipativa.
Tutte le feature in sviluppo, pianificate o in considerazione sono visibili pubblicamente su una board condivisa. Ogni item include:
I terapeuti possono:
Ogni trimestre organizziamo:
Office hours aperte dove qualsiasi utente può prenotare 30 minuti di conversazione diretta con il team di sviluppo
Survey qualitative su aree specifiche (es. "Come possiamo migliorare l'interfaccia vocale?" oppure "Quali metriche vorreste vedere nell'analytics longitudinale?")
Beta testing mirato per feature sperimentali, con gruppo ristretto di early testers che forniscono feedback dettagliato prima del rilascio generale
Quando scegliamo di non implementare una feature richiesta, spieghiamo pubblicamente il perché. Le ragioni possono essere:
Questa trasparenza serve a due scopi: accountability verso gli utenti, e educazione reciproca. Il team impara dai terapeuti, i terapeuti comprendono meglio i vincoli tecnici.
Se condividi la visione che l'intelligenza artificiale nella salute mentale debba essere costruita con rigore, trasparenza e rispetto per la complessità della relazione terapeutica, se pensi che gli strumenti tecnologici debbano servire i professionisti invece di sostituirli, Parere è anche tuo.
Siamo in fase beta. Il prodotto è imperfetto. Molte feature sono ancora in sviluppo. Ma il progetto è aperto, la roadmap è trasparente, e stiamo cercando terapeuti che vogliano contribuire a costruirlo.
Non serve competenza tecnica. Serve esperienza clinica, pensiero critico, disponibilità a sperimentare.
Se ti interessa, inizia provando Parere gratuitamente. Poi, se vorrai approfondire, potrai partecipare ai forum che apriremo, rispondere alle survey che lanceremo periodicamente, prenotare office hour con il team di sviluppo. Aiutaci a costruire uno strumento che la professione merita.