Come i pensieri influenzano ciò che gli occhi vedono
Uno studio sorprendente potrebbe indicare nuovi approcci per i sistemi di IA
Quando vedete un sacchetto di carote al supermercato, vi vengono in mente patate e pastinache o ali di pollo e sedano?

Le prime aree visive del cervello adattano le loro rappresentazioni dello stesso stimolo visivo a seconda del compito che stiamo cercando di svolgere.
Rungratsameetaweemana lab/Columbia Engineering
Dipende, ovviamente, se state preparando un sostanzioso stufato invernale o se vi state preparando a guardare il Super Bowl.
La maggior parte degli scienziati concorda sul fatto che la categorizzazione di un oggetto - come pensare a una carota come a un ortaggio da radice o a uno snack per le feste - sia compito della corteccia prefrontale, la regione cerebrale responsabile del ragionamento e di altre funzioni di alto livello che ci rendono intelligenti e sociali. In questo senso, gli occhi e le regioni visive del cervello sono un po' come una telecamera di sicurezza che raccoglie dati e li elabora in modo standardizzato prima di passarli all'analisi.
Tuttavia, un nuovo studio guidato dall'ingegnere biomedico e neuroscienziato Nuttida Rungratsameetaweemana, professore assistente alla Columbia Engineering, dimostra che le regioni visive del cervello svolgono un ruolo attivo nel dare un senso alle informazioni. Il modo in cui interpretano le informazioni dipende da ciò che il resto del cervello sta elaborando.
Se è la domenica del Super Bowl, il sistema visivo vede quelle carote su un vassoio di verdure prima che la corteccia prefrontale ne conosca l'esistenza.
Pubblicato su Nature Communications, lo studio fornisce una delle prove più chiare che i sistemi sensoriali precoci svolgono un ruolo nel processo decisionale e che si adattano in tempo reale. Inoltre, indica nuovi approcci per la progettazione di sistemi di intelligenza artificiale in grado di adattarsi a situazioni nuove o inaspettate.
Rungratsameetaweemana ci spiega meglio la ricerca:
Cosa c'è di interessante in questo nuovo studio?
I nostri risultati mettono in discussione la visione tradizionale secondo cui le prime aree sensoriali del cervello si limitano a "guardare" o "registrare" gli input visivi. In realtà, il sistema visivo del cervello umano rimodella attivamente la rappresentazione dello stesso oggetto a seconda di ciò che si sta cercando di fare. Anche nelle aree visive che sono molto vicine alle informazioni grezze che entrano negli occhi, il cervello ha la flessibilità di sintonizzare la sua interpretazione e le sue risposte in base al compito corrente. Questo ci dà un nuovo modo di pensare alla flessibilità del cervello e ci apre idee su come costruire sistemi di intelligenza artificiale più adattivi, modellati su queste strategie neurali.
Come siete arrivati a questa sorprendente conclusione?
La maggior parte dei lavori precedenti riguardava il modo in cui le persone imparano le categorie nel tempo, ma questo studio si concentra sulla flessibilità: Come fa il cervello a passare rapidamente da un modo all'altro di organizzare le stesse informazioni visive?
Come sono stati condotti gli esperimenti?
Abbiamo usato la risonanza magnetica funzionale (fMRI) per osservare l'attività cerebrale delle persone mentre collocavano le forme in diverse categorie. La novità era che le "regole" per categorizzare le forme cambiavano continuamente. Questo ci ha permesso di determinare se la corteccia visiva cambiava il modo di rappresentare le forme a seconda di come avevamo definito le categorie.
Abbiamo analizzato i dati utilizzando strumenti computazionali di apprendimento automatico, compresi i classificatori multivariati. Questi strumenti ci permettono di esaminare i modelli di attivazione cerebrale in risposta a diverse immagini di forme e di misurare quanto chiaramente il cervello distingue le forme in diverse categorie. Abbiamo visto che il cervello risponde in modo diverso a seconda delle categorie in cui i partecipanti hanno classificato le forme.
Che cosa avete visto nei dati di questi esperimenti?
L'attività del sistema visivo - comprese le cortecce visive primarie e secondarie, che si occupano dei dati provenienti direttamente dagli occhi - cambiava praticamente con ogni compito. La loro attività si è riorganizzata a seconda delle regole decisionali utilizzate, come dimostrato dai modelli di attivazione cerebrale che diventavano più distintivi quando una forma si trovava vicino all'area grigia tra le categorie. Si trattava delle forme più difficili da distinguere, quindi è proprio in questi casi che un'elaborazione supplementare sarebbe stata più utile.
Nei dati della risonanza magnetica abbiamo potuto osservare schemi neurali più chiari nei casi in cui le persone avevano svolto meglio i compiti. Questo suggerisce che la corteccia visiva può aiutarci direttamente a risolvere compiti di categorizzazione flessibili.
Quali sono le implicazioni di questi risultati?
La cognizione flessibile è un tratto distintivo della cognizione umana, e anche i sistemi di intelligenza artificiale più avanzati attualmente hanno ancora difficoltà nell'esecuzione di compiti flessibili. I nostri risultati possono contribuire alla progettazione di sistemi di IA in grado di adattarsi meglio alle nuove situazioni. I risultati possono anche contribuire alla comprensione di come la flessibilità cognitiva possa essere compromessa in condizioni come l'ADHD o altri disturbi cognitivi. Inoltre, ci ricordano quanto sia notevole ed efficiente il nostro cervello, anche nelle prime fasi di elaborazione.
Quali sono i prossimi sviluppi di questa linea di ricerca?
Stiamo spingendo le neuroscienze più in là, studiando come funziona la codifica flessibile a livello di circuiti neurali. Con la fMRI, abbiamo osservato grandi popolazioni di neuroni. In un nuovo studio di follow-up, stiamo studiando i meccanismi circuitali della codifica flessibile registrando l'attività neurologica all'interno del cranio. In questo modo possiamo chiederci come i singoli neuroni e i circuiti neuronali del cervello umano supportino un comportamento flessibile e orientato agli obiettivi.
Stiamo anche iniziando a esplorare come queste idee possano essere utili per i sistemi artificiali. Gli esseri umani sono molto bravi ad adattarsi a nuovi obiettivi, anche quando le regole cambiano, ma gli attuali sistemi di intelligenza artificiale spesso faticano a raggiungere questo tipo di flessibilità. Speriamo che quanto stiamo imparando dal cervello umano possa aiutarci a progettare modelli che si adattino in modo più fluido, non solo a nuovi input, ma anche a nuovi contesti.
Nota: questo articolo è stato tradotto utilizzando un sistema informatico senza intervento umano. LUMITOS offre queste traduzioni automatiche per presentare una gamma più ampia di notizie attuali. Poiché questo articolo è stato tradotto con traduzione automatica, è possibile che contenga errori di vocabolario, sintassi o grammatica. L'articolo originale in Inglese può essere trovato qui.