IL caso ChatGPT-KOKO:Le IA sono un valido aiuto in psicologia?
Nuova creazione dell’OpenAI è la ChatGPT, un modello di intelligenza artificiale. In soli cinque giorni più di cinque milioni di utenti si sono registrati per utilizzarla. I suoi campi di applicazione sono numerosi e fra questi spicca quello psicologico. Tuttavia non è sempre oro quel che luccica: vediamo insieme il caso Koko e quali sono le implicazioni etiche di utilizzare l’IA nel campo psicologico.
ChatGPT, l’IA alla portata di tutti
ChatGPT è catalogabile come un modello GPT-3, ovvero Generative Pre-trained Transformer 3. Detto in altre parole: è un modello di intelligenza artificiale che, sulla base di reti neurali, è in grado di analizzare un testo codificato.
Appartiene alla casa delle OpenAI (un’organizzazione che si occupa di ricerca sull’intelligenza artificiale con lo scopo di promuovere e sviluppare servizi a beneficio della popolazione) ed è stato condiviso con il popolo del web nel novembre del 2022. In pochissimo tempo è stato scaricato da milioni di utenti perchè vi si può accedere gratuitamente. Infatti basta solo iscriversi tramite, ad esempio, un account Google o Microsoft.
Infinite possibilità…
La ChatGPT è in grado di dare risultati spettacolari in qualsiasi campo di applicazione, il che spiega perchè è stata scaricata da così tanti utenti. Giusto per citarne alcuni:
- nel mondo musicale, è in grado di scrivere testo e accordi di una canzone e, se richiesto, di scriverli anche in base ad uno stile specifico
- nel cinema, riesce a strutturare la sceneggiatura di un film, anche in base al genere e seguendo lo stile di un determinato regista
- nell’ambito letterario può scrivere un intero romanzo, in quello artistico può dar vita ad un nuovo movimento artistico
La ChatGPT sa rispondere anche a richieste più assurde:
- cucinare piatti creativi con quel che si ha in frigo
- fare al posto tuo la lista della spesa
- creare piani nutrizionali personalizzati
- fare simulate del primo appuntamento
- scrivere la bio di siti di incontri, in primis Tinder
L’IA nella psicologia: il caso KOKO
Sono numerosi i campi di applicazione dell’IA nel mondo della psicologia, sia ad esempio per fare psicoeducazione (qui) sia per dare supporto psicologico, o recentemente, anche nel campo del recruitment (qui).
Qui oggi parleremo di KOKO, una piattaforma psicologica no-profit il cui co-fondatore è Rob Morrison.
KOKO nasce per accogliere le richieste di aiuto psicologico che vengono gestite da volontari utilizzando app come Telegram e Discord. Il funzionamento è piuttosto semplice: l’utente scrive al bot KOKO e viene sottoposto ad una serie di domande a scelta multipla. Successivamente le sue risposte sono mandate, in modo anonimo, ai volontari, che sono persone reali.
Qual è stato il problema?
Il co-fondatore, con un messaggio su Twitter, ha raccontato che ha condotto un esperimento su 4000 persone secondo cui i volontari si sono serviti della chatGPT per scrivere le risposte, piuttosto che fare autonomamente. Questo non era stato preliminarmente comunicato agli utenti. Successivamente agli utenti è stato chiesto di esprimere un indice di gradimento in merito all’esperienza di supporto ricevuta. Gli utenti hanno valutato positivamente il supporto ottenuto, ma la loro opinione è variata quando gli è stato comunicato che le risposte ottenute erano state scritte da una IA.
Le critiche sono state numerose e mettono in luce soprattutto il tema dell’etica e del consenso informato.
E tu cosa ne pensi? Può essere un’intelligenza artificiale effettivamente di aiuto nella psicologia? Quanto siamo in grado, ad oggi, di distinguere una conversazione con una persona reale da una con una IA?
Se sei interessato a queste o ad altri temi, seguici sulla nostra Community di Psicologi Digitali cliccando qui.
Questo articolo ha 0 commenti