Perché Parere esiste

L'intelligenza artificiale sta ridisegnando la relazione tra tecnologia e cura. Riteniamo che questo ridisegno meriti una riflessione più profonda di quella che il mercato attuale offre.

Negli ultimi due anni abbiamo assistito a un'esplosione di strumenti che promettono di "risolvere" la salute mentale attraverso l'automazione. Chatbot che sostituiscono terapeuti. LLM generici riproposti come consulenti psicologici. Piattaforme di trascrizione che trattano dati clinici come qualsiasi altro testo.

Parere nasce da una domanda diversa: cosa succederebbe se l'intelligenza artificiale fosse progettata non per sostituire il terapeuta, ma per restituirgli le risorse cognitive che il lavoro amministrativo sottrae alla relazione clinica?

Questa pagina spiega come stiamo rispondendo a quella domanda.

Scorri per leggere
Tempo di lettura: 15-18 minuti
01

La deriva della salute mentale automatizzata

Nel 2024, milioni di persone hanno usato ChatGPT, Claude, Gemini come sostituti improvvisati del supporto psicologico. I numeri sono impressionanti: secondo alcune ricerche, fino al 40% degli utenti di LLM generalisti li interroga su temi di salute mentale, relazioni, crisi personali.

Questa tendenza solleva questioni che vanno oltre la semplice inadeguatezza tecnica. Quando un sistema viene consultato per questioni psicologiche senza essere stato progettato per questo scopo, si crea un vuoto di responsabilità. I provider di questi modelli (OpenAI, Anthropic, Google, Meta) non hanno obblighi deontologici verso chi li usa. Non esistono barriere etiche strutturali. Non c'è supervisione clinica. Il modello economico premia l'engagement, non l'esito terapeutico.

Il risultato è prevedibile: persone vulnerabili ottengono risposte superficiali a problemi complessi, sviluppando l'illusione di un supporto che in realtà non esiste. Nel migliore dei casi, questa dinamica è inutile. Nel peggiore, è dannosa.

Il paradosso della professione terapeutica

Mentre i chatbot erodono il perimetro della pratica clinica offrendo simulacri di ascolto, i terapeuti professionisti affrontano un carico di lavoro che rende insostenibile mantenere la qualità della cura. Per gestire solo quindici pazienti alla settimana significa tenere a mente:

  • Circa 450 dettagli clinici rilevanti (diagnosi, farmacoterapie, eventi biografici, dinamiche relazionali, pattern sintomatologici)
  • Traiettorie evolutive individuali che si sviluppano su mesi o anni
  • Connessioni tra sedute che emergono lentamente e richiedono memoria longitudinale accurata
  • Documentazione post-seduta che assorbe tra le 20 e le 40 ore mensili di lavoro non fatturabile

Questo carico cognitivo nascosto costringe molti professionisti a scegliere tra due opzioni insoddisfacenti: limitare il numero di pazienti (riducendo la sostenibilità economica della pratica) oppure accettare livelli di stress che conducono al burnout.

La domanda che ci ha guidati

Esiste un modo per usare l'intelligenza artificiale che non sostituisca il terapeuta con un automa, ma che alleggerisca il carico amministrativo senza compromettere la qualità clinica?

Parere è il nostro tentativo di risposta.

02

Tecnologia come infrastruttura cognitiva, non come sostituto decisionale

Punto chiave
Esiste una differenza qualitativa tra l'uso dell'AI per supportare un professionista competente e l'uso dell'AI per sostituire quel professionista.

Nel primo caso, la tecnologia funziona come memoria esterna, assistente organizzativo, strumento di pattern recognition. Il terapeuta mantiene il controllo epistemico: interpreta, valida, decide. L'AI evidenzia, suggerisce, organizza.

Nel secondo caso, quello dei chatbot diretti al pubblico, la tecnologia assume responsabilità cliniche che non può sostenere. Offre diagnosi che non può validare, suggerisce interventi senza comprensione del contesto sistemico, crea l'illusione della relazione terapeutica senza averne gli elementi costitutivi.

Parere appartiene deliberatamente alla prima categoria.

Architettura delle responsabilità

Ogni funzionalità di Parere è costruita attorno a questo principio: il sistema propone, il terapeuta dispone.

Memoria clinica: Parere aggrega informazioni da tutte le sedute di un paziente, ma non interpreta autonomamente il significato di quell'aggregazione. Quando un terapeuta chiede "Quali progressi ha fatto Sofia negli ultimi tre mesi?", il sistema presenta dati organizzati cronologicamente, evidenzia cambiamenti nei pattern sintomatologici documentati, segnala temi ricorrenti. L'interpretazione clinica, come l'attribuzione di significato a quei pattern, la formulazione di ipotesi diagnostiche, la decisione su come procedere, resta interamente nelle mani del professionista.

Documentazione assistita: Quando Parere genera una bozza di nota clinica o una sintesi per la supervisione, sta essenzialmente riorganizzando materiale già prodotto dal terapeuta durante le sedute. La trascrizione e la sua rielaborazione è algoritmica. Il terapeuta rivede, modifica, integra, elimina. La firma finale è sua, così come la responsabilità del contenuto.

Aggiornamento cartella clinica: Se durante una seduta emerge un'informazione rilevante non presente nella cartella (un nuovo evento biografico, un cambiamento nella farmacoterapia, un'evoluzione diagnostica), Parere la segnala e propone l'integrazione. Ma l'approvazione è manuale, esplicita. Nulla entra nella cartella senza validazione diretta del terapeuta.

Questa architettura non è casuale. È il riflesso di una scelta epistemologica: le decisioni cliniche richiedono giudizio contestuale che i sistemi automatici non possono replicare. L'AI può gestire complessità computazionale (ricordare centinaia di dettagli, trovare pattern in volumi di testo), ma la complessità relazionale della terapia appartiene a un ordine diverso.

Conseguenze pratiche

Questa impostazione ha implicazioni concrete sul design del prodotto.

Parere può fare molto più che trascrivere. Può identificare pattern ricorrenti nel materiale clinico, suggerire connessioni tra temi emersi in sedute diverse, evidenziare evoluzioni sintomatologiche nel tempo, proporre domande di approfondimento basate su quanto discusso. Può, in sostanza, funzionare come sparring partner per il ragionamento clinico.

Ma tutto questo avviene sempre in modalità consultiva, mai prescrittiva. Quando Parere suggerisce un possibile collegamento tra il materiale di oggi e una seduta di tre settimane fa, sta offrendo un'ipotesi da valutare, non una conclusione da accettare. Quando evidenzia un pattern ricorrente nelle dinamiche relazionali del paziente, sta segnalando una regolarità statistica, non formulando un'interpretazione clinica.

La differenza è qualitativa: il sistema può elaborare complessità computazionale (ricordare centinaia di dettagli, trovare co-occorrenze in volumi estesi di testo, aggregare informazioni sparse nel tempo), ma la complessità ermeneutica, dare significato a quei pattern, contestualizzarli nella storia del paziente, decidere come usarli terapeuticamente, appartiene al terapeuta.

Ciò che Parere non fa è assumere responsabilità decisionale. Non formula diagnosi autonome. Non classifica materiale clinico secondo categorie diagnostiche senza supervisione. Non suggerisce interventi terapeutici specifici come se fosse un collega con competenza clinica. Queste operazioni richiedono giudizio contestuale che il sistema non può replicare e responsabilità professionale che non può assumere.

Il risultato pratico: il terapeuta risparmia 15-25 minuti per paziente su attività amministrative e ottiene supporto attivo per il ragionamento clinico, liberando risorse cognitive per ciò che richiede la sua presenza insostituibile: la relazione terapeutica stessa.

Interessato a contribuire a questa visione?

03

Il problema dell'infrastruttura: a chi appartiene la memoria clinica?

Usare LLM proprietari (OpenAI, Anthropic, Google, Meta) per processare dati clinici significa affidare informazioni estremamente sensibili a infrastrutture controllate da entità commerciali i cui interessi non sono allineati con quelli della pratica terapeutica.

Questo disallineamento si manifesta su diversi livelli.

Livello 1: Governance dei dati

I modelli proprietari operano come black box. L'utente finale, in questo caso il terapeuta, non ha visibilità su come i dati vengono processati, dove transitano fisicamente, quali tracce lasciano nei log di sistema. Le policy di privacy vengono aggiornate unilateralmente. I termini di servizio cambiano senza consenso esplicito per ogni modifica.

Nel contesto della salute mentale, questa opacità è inaccettabile. I dati clinici non possono essere trattati come dati di advertising o analytics generici.

Livello 2: Incentivi economici

I provider di LLM hanno interesse a massimizzare il training dei loro modelli. Anche quando dichiarano di non usare i dati degli utenti per training, questa dichiarazione dipende interamente dalla loro buona fede e può cambiare in futuro. Non esistono meccanismi di audit indipendenti. La fiducia è l'unica garanzia, ma la fiducia in contesti commerciali è fragile.

Livello 3: Dipendenza geopolitica

La quasi totalità dei LLM avanzati è sviluppata da aziende statunitensi o cinesi. L'Europa, pur avendo prodotto regolamentazioni avanzate (GDPR, AI Act), non ha infrastruttura LLM sovrana comparabile. Questo crea una dipendenza strutturale: i dati clinici europei vengono processati su server che, indipendentemente dalla loro localizzazione fisica, rispondono a giurisdizioni extraeuropee.

Il compromesso attuale e la destinazione finale

L'infrastruttura attuale di Parere è interamente europea: l'applicazione gira su server tedeschi, mentre i servizi di intelligenza artificiale operano su server italiani a Milano. Questi server AI, pur appartenendo a un cloud provider statunitense, sono configurati con garanzie contrattuali specifiche:

  • Zero retention: Nessun dato viene conservato dopo l'elaborazione. Ogni richiesta viene processata e i dati vengono eliminati in pochi microsecondi, senza lasciare traccia persistente sui server del provider.
  • Esclusione categorica dal training: I dati non vengono mai utilizzati per addestrare i modelli dell'infrastruttura AI. Questa esclusione è vincolante contrattualmente, non basata su policy modificabili unilateralmente.
  • Localizzazione fisica: I server sono fisicamente in Europa, soggetti a giurisdizione europea e GDPR.

Questo setup rappresenta un compromesso pragmatico: otteniamo capacità computazionale avanzata mantenendo controllo geografico e garanzie contrattuali robuste. Ma non ci basta.

La nostra roadmap: verso sovranità tecnologica completa

Anche con le garanzie attuali, rimane una dipendenza strutturale da infrastruttura controllata da entità commerciali i cui interessi ultimi non sono allineati con quelli della pratica clinica. Le policy possono cambiare. I contratti possono essere rinegoziati. La fiducia, per quanto supportata da clausole legali, resta l'elemento fondante. Per questo la nostra roadmap tecnologica prevede migrazione graduale verso LLM open source (famiglia Llama, Mistral, Qwen, modelli italiani come Camoscio) che possiamo:

  1. 1.Hostare completamente in autonomia su infrastruttura europea di nostra proprietà o gestita da partner di cui abbiamo pieno controllo (server in Germania, Paesi Bassi, Francia, Italia), eliminando qualsiasi intermediazione di cloud provider globali.
  2. 2.Tunare specificamente per il contesto clinico usando tecniche di fine-tuning che non richiedono accesso ai dati sensibili (few-shot learning, RLHF sintetico, prompt engineering avanzato, distillazione da modelli più grandi).
  3. 3.Auditare completamente a livello di codice, permettendo verifiche indipendenti da parte di enti terzi, università, o autorità di vigilanza. Il codice del modello è ispezionabile, modificabile, migliorabile dalla community.

Questo approccio richiede investimenti significativi: infrastruttura GPU dedicata, competenze di machine learning operations, manutenzione continuativa dei modelli. Non è qualcosa che possiamo implementare durante la fase beta, quando le risorse sono limitate e le priorità sono altrove. Ma è una direzione strategica esplicita, documentata nella roadmap pubblica, con timeline orientativa e criteri di decisione trasparenti. Non è un'aspirazione vaga, è un piano con step concreti.

In un settore dove la fiducia è il fondamento della relazione terapeutica, l'infrastruttura tecnologica non può essere un punto cieco. I terapeuti devono poter spiegare ai loro pazienti non solo cosa fanno i sistemi che usano, ma come funzionano e chi li controlla.

La sovranità tecnologica non è ideologia. È una condizione necessaria per praticare una forma di cura che rispetti l'autonomia delle persone coinvolte — sia i terapeuti che i loro pazienti.

04

Come costruire uno strumento accessibile senza sacrificare la qualità

La tensione tra accessibilità economica e sostenibilità del progetto è reale. Sviluppare software di qualità professionale richiede competenze costose. Mantenere infrastruttura server robusta richiede budget ricorrenti. Offrire supporto adeguato richiede persone.

Molti progetti nel settore health-tech risolvono questa tensione attraverso modelli estrattivi: pricing elevato che esclude professionisti con budget limitati, monetizzazione indiretta tramite vendita di dati aggregati, freemium aggressivo dove le funzioni essenziali sono dietro paywall.

Vogliamo esplorare un approccio diverso.

Fase attuale: beta gratuita e scoperta dei costi reali

Parere è attualmente in beta privata, completamente gratuita per tutti gli utenti senza limiti di funzionalità o numero di pazienti. Questa non è generosità strategica, è necessità epistemica: non sappiamo ancora quanto costa realmente mantenere il servizio.

I costi dipendono da variabili che scopriremo solo attraverso l'uso reale:

  • Volume medio di trascrizione per terapeuta (ore di audio mensili)
  • Frequenza di query all'LLM (quante volte al giorno un terapeuta interagisce vocalmente con il sistema)
  • Storage necessario per mantenere storico completo (quanto tempo i terapeuti tengono i dati prima di archiviarli)
  • Costo di compute per feature avanzate (analisi longitudinali, pattern recognition su dataset estesi)

Una volta raccolti questi dati in forma aggregata e anonima, sapremo proporre un modello di pricing che soddisfi questi tre criteri:

  1. 1.Accessibilità: Chi ha budget limitato deve poter usare Parere senza barriere proibitive
  2. 2.Sostenibilità: Il progetto deve generare risorse sufficienti per continuare a svilupparsi
  3. 3.Indipendenza: Il modello non deve creare incentivi perversi (come la vendita dei dati)

Vuoi partecipare alla discussione sul pricing?

05

Oltre il prodotto: Parere come piattaforma per comprendere l'AI nella pratica clinica

L'integrazione dell'intelligenza artificiale nella salute mentale è ancora un campo giovane, caratterizzato più da promesse che da evidenze empiriche solide. Mancano studi longitudinali sull'impatto reale di questi strumenti. Mancano dati su come l'AI assistita influenzi gli outcome terapeutici, il carico cognitivo dei professionisti, la qualità della relazione clinica.

Parere può diventare infrastruttura per produrre questa conoscenza.

Partnership con istituzioni accademiche

Vogliamo costruire collaborazioni con università italiane e internazionali per condurre ricerca in tre aree:

Area 1: Impatto sulla sostenibilità professionale

Domanda di ricerca: l'uso di strumenti di memoria clinica assistita riduce il burnout nei terapeuti? Permette di gestire più pazienti mantenendo qualità della cura? Modifica i pattern di errore diagnostico?

Metodologia possibile: studi comparativi longitudinali con gruppo controllo (terapeuti che usano Parere vs terapeuti con workflow tradizionale), misurazione di variabili come carico cognitivo percepito, tempo dedicato a documentazione, indici di stress occupazionale.

Area 2: Pattern clinici emergenti

Domanda di ricerca: analizzando dati aggregati e anonimizzati da centinaia di percorsi terapeutici, emergono pattern ricorrenti nelle traiettorie di miglioramento? Esistono profili sintomatologici che rispondono meglio a determinate strategie di intervento?

Metodologia possibile: analisi di cluster su dataset anonimizzati con consenso esplicito, correlazione tra variabili cliniche e outcome misurati, pubblicazione risultati in riviste peer-reviewed.

Area 3: Etica dell'AI nella relazione terapeutica

Domanda di ricerca: come percepiscono i pazienti l'uso di strumenti AI da parte dei loro terapeuti? Modifica la fiducia nella relazione? Esistono differenze generazionali o culturali in questa percezione?

Metodologia possibile: studi qualitativi (interviste semi-strutturate a pazienti i cui terapeuti usano Parere), survey quantitative su campioni ampi, analisi fenomenologica delle narrazioni raccolte.

Governance della ricerca

Qualsiasi ricerca condotta usando dati di Parere seguirà protocolli etici rigorosi:

  • Consenso informato esplicito da parte di terapeuti e (dove rilevante) pazienti
  • Anonimizzazione irreversibile dei dati prima di qualsiasi analisi
  • Review etica indipendente da parte di comitati universitari o enti terzi
  • Pubblicazione aperta dei risultati, non confinati dietro paywall accademici
  • Trasparenza metodologica completa, inclusi dataset (quando possibile) e codice di analisi

Perché questo è rilevante

La salute mentale assistita da AI non può svilupparsi solo attraverso intuizioni commerciali o hype tecnologico. Serve base empirica rigorosa. Serve comprensione delle conseguenze sistemiche. Non solo "funziona?", ma "funziona per chi? in quali condizioni? con quali trade-off?".

Parere aspira a contribuire a questa base di conoscenza. Non come vendor che autocelebra il proprio prodotto, ma come infrastruttura che abilita ricerca indipendente e trasparente.

06

Costruire insieme: come Parere evolve

Uno strumento clinico non può essere sviluppato in isolamento dai professionisti che lo useranno. Le decisioni su quali feature implementare, come bilanciare semplicità e potenza, dove investire risorse di sviluppo, non possono essere prese solo internamente.

Per questo Parere opera con roadmap pubblica e meccanismi di governance partecipativa.

Roadmap pubblica

Tutte le feature in sviluppo, pianificate o in considerazione sono visibili pubblicamente su una board condivisa. Ogni item include:

  • Descrizione della funzionalità
  • Razionale clinico (quale problema risolve)
  • Stato di sviluppo (idea / in progettazione / in sviluppo / in test / rilasciata)
  • Feedback raccolti dalla community

I terapeuti possono:

  • Commentare su feature proposte
  • Suggerire nuove funzionalità
  • Votare priorità (quali feature vorrebbero vedere prima)
  • Segnalare bug o problemi di usabilità

Cicli di feedback strutturati

Ogni trimestre organizziamo:

Office hours aperte dove qualsiasi utente può prenotare 30 minuti di conversazione diretta con il team di sviluppo

Survey qualitative su aree specifiche (es. "Come possiamo migliorare l'interfaccia vocale?" oppure "Quali metriche vorreste vedere nell'analytics longitudinale?")

Beta testing mirato per feature sperimentali, con gruppo ristretto di early testers che forniscono feedback dettagliato prima del rilascio generale

Trasparenza sulle decisioni

Quando scegliamo di non implementare una feature richiesta, spieghiamo pubblicamente il perché. Le ragioni possono essere:

  • Complessità tecnica eccessiva rispetto al beneficio
  • Conflitto con principi architetturali (es. richieste di "diagnosi automatica")
  • Risorse di sviluppo insufficienti nel breve termine (ma può entrare in roadmap futura)

Questa trasparenza serve a due scopi: accountability verso gli utenti, e educazione reciproca. Il team impara dai terapeuti, i terapeuti comprendono meglio i vincoli tecnici.

Unisciti a noi

Se condividi la visione che l'intelligenza artificiale nella salute mentale debba essere costruita con rigore, trasparenza e rispetto per la complessità della relazione terapeutica, se pensi che gli strumenti tecnologici debbano servire i professionisti invece di sostituirli, Parere è anche tuo.

Siamo in fase beta. Il prodotto è imperfetto. Molte feature sono ancora in sviluppo. Ma il progetto è aperto, la roadmap è trasparente, e stiamo cercando terapeuti che vogliano contribuire a costruirlo.

Non serve competenza tecnica. Serve esperienza clinica, pensiero critico, disponibilità a sperimentare.

Se ti interessa, inizia provando Parere gratuitamente. Poi, se vorrai approfondire, potrai partecipare ai forum che apriremo, rispondere alle survey che lanceremo periodicamente, prenotare office hour con il team di sviluppo. Aiutaci a costruire uno strumento che la professione merita.