Introduzione: percepire il mondo come un essere umano
Noi esseri umani non percepiamo il mondo attraverso un solo senso alla volta. Quando entriamo in una trattoria toscana, vediamo le tovaglie a quadri, sentiamo il profumo del ragu' che sobbolle, ascoltiamo il brusio delle conversazioni e leggiamo il menu scritto a mano sulla lavagna. Tutte queste informazioni — visive, olfattive, uditive, testuali — si fondono in un'esperienza unica e coerente. Il nostro cervello non elabora queste modalità in compartimenti separati: le integra istantaneamente per costruire una comprensione profonda dell'ambiente.
Per decenni, l'intelligenza artificiale ha lavorato in modo opposto. Un modello sapeva leggere il testo, un altro riconoscere le immagini, un altro ancora trascrivere l'audio. Ciascuno era specializzato nella propria modalità, incapace di comprendere le altre. Era come avere un esperto di letteratura che non ha mai visto un dipinto e un critico d'arte che non sa leggere.
L'intelligenza artificiale multimodale cambia radicalmente questa prospettiva. Si tratta di modelli capaci di elaborare, comprendere e generare contenuti attraverso diverse modalità — testo, immagini, audio, video — in modo integrato. Non si limitano a tradurre da un formato all'altro: costruiscono una rappresentazione unificata della realtà, proprio come fa il cervello umano.
Questo articolo esplora cosa significa questa rivoluzione, come funziona tecnicamente, e soprattutto quali opportunità concrete offre alle imprese e alla cultura italiana.
Definizione: un modello di IA si definisce multimodale quando è in grado di ricevere input e/o produrre output in più di una modalità (testo, immagine, audio, video), integrandole in una comprensione coerente.
L'evoluzione: da modelli specializzati a modelli unificati
Per comprendere l'importanza dell'IA multimodale, bisogna ripercorrere brevemente la storia dei modelli di intelligenza artificiale e capire come siamo arrivati fino a qui.
L'era dei modelli mono-modali
Fino a pochi anni fa, ogni compito richiedeva un modello dedicato. I modelli di linguaggio (come i primi GPT) eccellevano nel comprendere e generare testo, ma erano completamente "ciechi": non potevano analizzare un'immagine. I modelli di visione artificiale (come le reti convoluzionali usate per la classificazione di immagini) potevano riconoscere un gatto in una foto, ma non sapevano descriverlo a parole. I modelli di riconoscimento vocale trascrivevano l'audio in testo, senza comprenderne il significato semantico profondo.
Questa separazione creava problemi pratici enormi. Per costruire un assistente virtuale capace di rispondere a domande su un'immagine, serviva una pipeline complessa: un modello per analizzare l'immagine, uno per generare una descrizione testuale, uno per comprendere la domanda dell'utente, e un altro ancora per formulare la risposta. Ogni passaggio introduceva errori e perdite di informazione.
I primi passi verso l'integrazione
Il punto di svolta è arrivato con i transformer, l'architettura neurale introdotta da Google nel 2017. I transformer, originariamente progettati per il testo, si sono rivelati straordinariamente versatili: potevano essere adattati per elaborare qualsiasi tipo di dato sequenziale, dalle parole ai pixel, dalle onde sonore ai fotogrammi video.
Modelli come CLIP (Contrastive Language-Image Pre-training) di OpenAI hanno dimostrato per la prima volta che era possibile addestrare un unico sistema a comprendere la relazione tra testo e immagini. CLIP non classificava le immagini in categorie fisse: capiva il significato delle immagini in relazione al linguaggio naturale. Potevi chiedergli "trova immagini di tramonti sulla costa toscana" e il modello capiva cosa cercare, senza essere mai stato addestrato specificamente su quella query.
La convergenza: GPT-4V, Gemini, Claude
A partire dal 2023-2024, i principali laboratori di ricerca hanno iniziato a rilasciare modelli genuinamente multimodali. GPT-4V (GPT-4 con visione) di OpenAI è stato tra i primi a permettere agli utenti di inviare immagini insieme al testo in una stessa conversazione. Gemini di Google è stato progettato fin dall'inizio come modello multimodale nativo, capace di elaborare testo, immagini, audio e video. Claude di Anthropic ha integrato la comprensione delle immagini, permettendo analisi sofisticate di documenti, grafici e fotografie.
La differenza rispetto al passato non è solo quantitativa ma qualitativa. Questi modelli non "traducono" semplicemente da una modalità all'altra: ragionano attraverso le modalità. Possono osservare un grafico, leggere il testo che lo accompagna, e formulare conclusioni che richiedono la comprensione di entrambi.
Pipeline separata
Immagine → Modello visione → Descrizione → Modello linguaggio → Risposta. Ogni passaggio perde informazione.
Modello unificato
Immagine + Testo → Modello multimodale → Risposta. Tutte le informazioni vengono elaborate simultaneamente.
Come funziona l'IA multimodale
Comprendere i meccanismi tecnici dell'IA multimodale non richiede una laurea in informatica, ma aiuta a capire le potenzialità e i limiti di questa tecnologia. Vediamo i concetti fondamentali.
Tokenizzazione: tradurre tutto in un linguaggio comune
Il primo problema da risolvere è apparentemente semplice: come far "parlare" modalità diverse? Il testo è fatto di parole, le immagini di pixel, l'audio di onde sonore. Sono formati radicalmente diversi.
La soluzione è la tokenizzazione. Così come il testo viene suddiviso in token (pezzi di parole), anche le immagini e l'audio vengono convertiti in sequenze di token. Un'immagine viene divisa in piccole "piastrelle" (patch), ciascuna delle quali viene codificata come un token numerico. L'audio viene segmentato in brevi frammenti temporali, anch'essi convertiti in token. Il video diventa una sequenza di fotogrammi, ciascuno tokenizzato come un'immagine.
Il risultato è che testo, immagini e audio diventano tutti sequenze di numeri che il modello può elaborare con la stessa architettura. È come se un interprete traducesse italiano, cinese e arabo in un'unica lingua franca interna.
Lo spazio di rappresentazione condiviso
I token di diverse modalità non vengono solo convertiti in numeri: vengono proiettati in uno spazio di rappresentazione condiviso. Immaginate uno spazio multidimensionale (tipicamente con centinaia o migliaia di dimensioni) dove ogni concetto occupa una posizione. La parola "gatto", la foto di un gatto e il suono di un miagolio occupano posizioni vicine in questo spazio, perché il modello ha imparato che si riferiscono allo stesso concetto.
Questo è il cuore dell'IA multimodale: la capacità di creare rappresentazioni semantiche che trascendono la modalità. Il modello non sa se un'informazione proviene da un testo o da un'immagine — sa solo che si riferisce a un certo significato.
Cross-attention: l'attenzione tra modalità
Il meccanismo di attenzione (attention) è ciò che permette ai transformer di mettere in relazione diverse parti dell'input. Nella versione multimodale, la cross-attention permette ai token di una modalità di "prestare attenzione" ai token di un'altra. Quando il modello analizza un'immagine accompagnata da una domanda testuale, i token del testo possono focalizzarsi sulle parti rilevanti dell'immagine, e viceversa.
Per esempio, se chiedi "Di che colore è la porta sullo sfondo?", il meccanismo di cross-attention permette al modello di collegare la parola "porta" con la regione dell'immagine dove si trova effettivamente una porta, e la parola "colore" con le proprietà cromatiche di quella regione specifica.
Analogia: immaginate un direttore d'orchestra che ascolta contemporaneamente tutti gli strumenti e mette in relazione la melodia del violino con il ritmo della percussione. La cross-attention fa qualcosa di simile: coordina informazioni provenienti da "strumenti" diversi (testo, immagine, audio) per produrre un risultato armonico.
Addestramento multimodale
Come impara un modello multimodale? Viene addestrato su enormi dataset che contengono coppie e combinazioni di modalità: immagini con didascalie, video con sottotitoli, registrazioni audio con trascrizioni, pagine web con testo e foto insieme. Il modello impara le corrispondenze tra modalità osservando milioni (spesso miliardi) di questi esempi.
Un approccio particolarmente efficace è l'apprendimento contrastivo: il modello viene addestrato ad avvicinare le rappresentazioni di coppie corrette (una foto di un tramonto e la frase "tramonto sul mare") e ad allontanare quelle di coppie errate (la stessa foto e la frase "auto in autostrada"). Attraverso questo processo, il modello costruisce progressivamente quello spazio di rappresentazione condiviso che abbiamo descritto.
Applicazioni concrete per l'Italia
L'Italia, con il suo patrimonio culturale, la diversita' produttiva e l'eccellenza in settori come moda, cibo e turismo, è un terreno particolarmente fertile per le applicazioni dell'IA multimodale. Vediamo i casi d'uso più promettenti.
Patrimonio culturale e beni artistici
L'Italia possiede il più grande patrimonio culturale del mondo: oltre 5.000 musei, 58 siti UNESCO, milioni di opere d'arte. L'IA multimodale offre strumenti rivoluzionari per la conservazione, lo studio e la fruizione di questo patrimonio.
Descrizione e catalogazione automatica. I modelli multimodali possono analizzare fotografie di opere d'arte e generare descrizioni dettagliate che integrano analisi visiva e conoscenza storica. Un dipinto del Rinascimento può essere analizzato non solo nei suoi elementi compositivi (colori, prospettiva, soggetti), ma anche nel contesto della produzione dell'artista e del periodo storico. Questo accelera enormemente la catalogazione di collezioni che spesso giacciono nei depositi dei musei senza essere state ancora catalogate digitalmente.
Restauro assistito. Quando un affresco è danneggiato, l'IA multimodale può analizzare le porzioni superstiti, confrontarle con opere dello stesso artista o della stessa scuola, e suggerire ipotesi di ricostruzione. Non si tratta di "inventare" ciò che manca, ma di fornire ai restauratori informazioni aggiuntive basate sull'analisi incrociata di migliaia di opere simili. Un team dell'Universita' di Bologna ha già sperimentato questo approccio con affreschi pompeiani, ottenendo risultati che i restauratori hanno giudicato plausibili e utili.
Accessibilita'. L'IA multimodale può rendere l'arte accessibile a chi ha disabilità visive, generando descrizioni audio dettagliate e evocative delle opere. Non semplici elenchi di elementi ("c'è un uomo, c'è un albero"), ma narrazioni che trasmettono l'emozione e il significato del dipinto.
Turismo intelligente
Il turismo rappresenta circa il 13% del PIL italiano. L'IA multimodale può trasformare l'esperienza turistica in modi che fino a ieri erano fantascienza.
Ricerca visuale. Immaginate un turista che ha scattato una foto a un monumento sconosciuto durante una passeggiata per le strade di Lecce. Invece di cercare di descriverlo a parole in un motore di ricerca, può inviare la foto a un assistente multimodale che identifica immediatamente il monumento, fornisce informazioni storiche, suggerisce monumenti simili nelle vicinanze e propone un itinerario tematico.
Chatbot multimodali per hotel e strutture ricettive. Un agriturismo in Umbria può offrire un assistente virtuale capace di rispondere non solo a domande testuali, ma anche a foto inviate dai clienti. "Questo piatto che ho mangiato ieri era delizioso, avete la ricetta?" — il chatbot riconosce il piatto dalla foto e fornisce ingredienti e preparazione. "Ho trovato questa pianta nel giardino, è commestibile?" — il modello identifica la pianta e risponde.
Guide turistiche personalizzate. Combinando la posizione GPS, le foto scattate dal turista e le sue preferenze espresse a voce, un sistema multimodale può costruire in tempo reale un'esperienza turistica su misura, suggerendo percorsi che bilanciano arte, gastronomia, natura e shopping in base ai gusti specifici del visitatore.
Enogastronomia
Il settore agroalimentare italiano, con i suoi 838 prodotti DOP, IGP e STG, è un candidato naturale per l'IA multimodale.
Analisi integrata di etichette e prodotti. Un modello multimodale può analizzare simultaneamente l'etichetta di una bottiglia di vino (testo, grafica, informazioni normative), le note di degustazione (testo), una foto del colore nel calice (immagine) e persino la descrizione verbale dell'aroma (audio convertito in testo). L'integrazione di tutte queste informazioni permette una profilazione del prodotto impossibile da ottenere con strumenti mono-modali.
Controllo qualità visivo. Nelle linee di produzione, l'IA multimodale può ispezionare visivamente i prodotti e incrociare l'analisi visiva con le specifiche tecniche testuali. Un sistema che controlla forme di Parmigiano Reggiano può analizzare l'aspetto esterno della forma, confrontarlo con i parametri di qualità codificati nei disciplinari, e generare un report dettagliato che integra osservazione visiva e conoscenza normativa.
Esperienza del consumatore. App che permettono ai consumatori di fotografare un piatto al ristorante e ricevere suggerimenti di abbinamento vino, o di inquadrare un prodotto al supermercato e ricevere informazioni sulla provenienza, le ricette possibili e le alternative locali.
Moda e design
L'industria della moda italiana, che genera oltre 90 miliardi di euro l'anno, può beneficiare enormemente dell'IA multimodale.
Generazione di concept. Un designer può descrivere a parole un'idea — "un abito da sera che richiama i mosaici di Ravenna, con tonalita' blu e oro, linea fluida" — e il modello multimodale può generare bozzetti visivi che interpretano quella descrizione. Non si tratta di sostituire la creatività del designer, ma di accelerare la fase di esplorazione, permettendo di visualizzare rapidamente decine di varianti.
Analisi delle tendenze. Analizzando simultaneamente le immagini delle sfilate, i testi delle recensioni di moda, i post sui social media e i dati di vendita, i modelli multimodali possono individuare tendenze emergenti con mesi di anticipo rispetto ai metodi tradizionali.
Personalizzazione dell'e-commerce. Un cliente può caricare una foto di un outfit che gli piace e chiedere al sistema di trovare capi simili nel catalogo, oppure descrivere a parole cosa cerca e ricevere suggerimenti visivi personalizzati. La combinazione di comprensione visiva e linguistica rende queste ricerche molto più efficaci delle tradizionali ricerche per parole chiave.
Un dato significativo: secondo una ricerca dell'Osservatorio Artificial Intelligence del Politecnico di Milano, il 42% delle grandi imprese italiane sta sperimentando applicazioni di IA che coinvolgono più di una modalità di dato. Tra le PMI, la percentuale scende al 12%, ma è in rapida crescita.
IA generativa multimodale
Finora abbiamo parlato soprattutto di comprensione multimodale: la capacità di analizzare input di diverse modalità. Ma l'IA multimodale è anche generativa: può creare contenuti nuovi in modalità diverse da quella dell'input.
Da testo a immagine
Sistemi come DALL-E, Midjourney e Stable Diffusion hanno reso possibile generare immagini fotorealistiche o artistiche a partire da descrizioni testuali. La qualità ha raggiunto livelli impressionanti: è possibile generare immagini che la maggior parte delle persone non riesce a distinguere da fotografie reali.
Per le imprese italiane, questo apre possibilità concrete: generare mockup di prodotti prima della produzione, creare immagini per campagne pubblicitarie senza costosi servizi fotografici, visualizzare allestimenti di interni o vetrine prima di realizzarli. Una piccola azienda di ceramiche di Deruta può mostrare ai clienti esteri come apparirebbero i suoi prodotti in diversi contesti di arredamento, generando immagini personalizzate in pochi secondi.
Da testo a video
La frontiera più recente è la generazione di video a partire da testo. Modelli come Sora di OpenAI hanno dimostrato la capacità di generare video brevi ma sorprendentemente coerenti e realistici. Un prompt come "Una gondola che naviga lentamente lungo un canale veneziano al tramonto, con la luce dorata che si riflette sull'acqua" produce un video che sembra girato da un operatore professionista.
Le implicazioni per il settore creativo sono profonde. La produzione di contenuti video, tradizionalmente costosa e lenta, diventa accessibile anche a piccole imprese. Un agriturismo può generare video promozionali delle sue strutture; un artigiano può creare brevi clip dei suoi processi di lavorazione; un ente turistico può produrre contenuti per i social media a una velocità prima impensabile.
Da immagine a testo: oltre la semplice descrizione
Il captioning — la generazione di descrizioni testuali a partire da immagini — è uno dei compiti multimodali più maturi. Ma i modelli attuali vanno ben oltre la semplice descrizione. Possono analizzare un grafico finanziario e spiegarne le tendenze, esaminare una radiografia e suggerire aree di attenzione, leggere un documento manoscritto e trascriverlo, o analizzare una scena complessa e rispondere a domande specifiche su di essa.
Per il contesto italiano, questo è particolarmente rilevante per la digitalizzazione dei documenti storici. Archivi di stato, biblioteche e fondazioni possiedono milioni di documenti manoscritti che attendono di essere trascritti e indicizzati. L'IA multimodale può leggere calligrafie antiche, comprendere il contesto del documento e produrre trascrizioni che tengano conto sia dell'aspetto visivo del testo sia delle convenzioni linguistiche dell'epoca.
Audio e linguaggio
Modelli come Whisper di OpenAI hanno rivoluzionato la trascrizione audio, ma i sistemi multimodali vanno oltre: comprendono il tono della voce, il contesto emotivo, le pause e le esitazioni. Combinati con la comprensione del testo, possono analizzare una registrazione di un meeting aziendale e produrre non solo una trascrizione, ma un riassunto intelligente che evidenzia le decisioni prese, i punti di disaccordo e le azioni concordate.
Per le imprese italiane che lavorano con clienti internazionali, la traduzione multimodale in tempo reale — che tiene conto non solo delle parole ma anche del tono e del contesto culturale — rappresenta un'opportunità straordinaria.
— Centro Studi CID
Rischi e sfide
Come ogni tecnologia potente, l'IA multimodale porta con sé rischi significativi che devono essere compresi e gestiti. Ignorarli sarebbe tanto irresponsabile quanto ignorare le opportunità.
Deepfake e disinformazione
La capacità di generare immagini, audio e video indistinguibili dalla realtà rende tecnicamente possibile la creazione di deepfake sempre più sofisticati. Un video falso di un politico che pronuncia frasi mai dette, una foto manipolata che documenta un evento mai avvenuto, una registrazione audio contraffatta di una conversazione privata: questi scenari non sono più fantascienza ma possibilità concrete.
L'Italia, con il suo vivace dibattito politico e mediatico, è particolarmente vulnerabile. La diffusione di deepfake sui social media potrebbe influenzare l'opinione pubblica, danneggiare la reputazione di persone e aziende, e minare la fiducia nelle informazioni. Il Garante per la protezione dei dati personali ha già avviato riflessioni su come regolamentare l'uso di queste tecnologie.
Diritto d'autore e proprietà intellettuale
Se un modello genera un'immagine "nello stile di Botticelli", chi detiene i diritti sull'opera risultante? E se il modello, addestrato su milioni di immagini protette da copyright, produce un'immagine molto simile a una foto originale di un fotografo, si tratta di violazione del diritto d'autore?
Queste domande sono ancora largamente senza risposta giuridica definitiva. L'AI Act europeo, entrato in vigore nel 2024, impone obblighi di trasparenza (le immagini generate dall'IA devono essere etichettate come tali), ma non risolve completamente le questioni di proprietà intellettuale. Per le imprese italiane del settore creativo — moda, design, editoria, comunicazione — è fondamentale seguire l'evoluzione normativa e adottare approcci prudenti.
Consumo energetico
I modelli multimodali sono enormemente più complessi dei modelli solo testuali. Elaborare un video richiede ordini di grandezza più risorse computazionali rispetto a elaborare un testo. L'addestramento di modelli come Gemini o Sora richiede migliaia di GPU che lavorano per settimane, consumando quantità significative di energia elettrica.
In un momento in cui l'Europa e l'Italia si impegnano per la transizione ecologica, il costo ambientale dell'IA non può essere ignorato. Diverse stime indicano che l'addestramento di un singolo grande modello multimodale può produrre emissioni di CO2 equivalenti a quelle di cinque automobili nell'intero arco della loro vita. I progressi nell'efficienza energetica sono rapidi, ma la crescita della domanda di calcolo è ancora più rapida.
Bias e rappresentazione
I modelli multimodali ereditano i pregiudizi presenti nei dati di addestramento. Se i dataset contengono prevalentemente immagini e testi in inglese e relativi alla cultura anglosassone, il modello avrà una comprensione ridotta e potenzialmente distorta di altre culture. Per l'Italia, questo significa che un modello potrebbe non riconoscere correttamente piatti regionali, tradizioni locali o sfumature linguistiche dialettali.
Inoltre, i modelli di generazione di immagini hanno mostrato tendenze a riprodurre stereotipi visivi: rappresentare determinate professioni sempre con persone di un certo genere o etnia, ad esempio. La consapevolezza di questi limiti è essenziale per un uso responsabile della tecnologia.
Valutazione della qualità
Valutare la qualità di un output multimodale è intrinsecamente più difficile che valutare un output testuale. Come si misura la "correttezza" di un'immagine generata? Come si valuta se un video è "buono"? Le metriche automatiche sono ancora immature, e spesso la valutazione richiede il giudizio umano, con tutta la soggettivita' che questo comporta.
Principio di precauzione: l'IA multimodale è uno strumento potente che richiede un uso consapevole. Le imprese dovrebbero adottare policy interne chiare sull'uso di contenuti generati dall'IA, etichettare sempre i contenuti sintetici, e mantenere un controllo umano sui processi decisionali critici.
Il futuro: verso un'IA che percepisce il mondo
L'IA multimodale come la conosciamo oggi è solo l'inizio di un percorso che ci portera' verso sistemi sempre più capaci di comprendere e interagire con il mondo reale.
Verso l'IA incarnata (embodied AI)
Il passo successivo naturale è l'integrazione dell'IA multimodale con corpi fisici: robot, droni, veicoli autonomi. Un robot che non solo vede e sente, ma può toccare oggetti, muoversi nello spazio e manipolare l'ambiente. Questa è l'IA incarnata (embodied AI), e rappresenta una delle frontiere più ambiziose della ricerca.
Per l'Italia, le applicazioni potenziali sono enormi. Robot capaci di muoversi tra le navate di un magazzino logistico, comprendendo visivamente la disposizione delle merci e le istruzioni verbali degli operatori. Droni che ispezionano ponti e infrastrutture, analizzando visivamente lo stato di deterioramento e confrontandolo con i dati storici di manutenzione. Sistemi robotici nell'agricoltura che riconoscono visivamente lo stato di maturazione dei frutti e decidono autonomamente quando e come raccogliere.
Comprensione multimodale in tempo reale
Oggi, la maggior parte delle interazioni con i modelli multimodali avviene in modo asincrono: carichi un'immagine, aspetti la risposta. Il futuro è la comprensione in tempo reale: sistemi che elaborano continuamente flussi video e audio, comprendendo la scena in corso e reagendo istantaneamente.
Immaginate un sistema di videosorveglianza intelligente per un museo che non si limita a registrare, ma comprende in tempo reale cosa sta accadendo: riconosce un visitatore che si avvicina troppo a un'opera, distingue un gesto innocuo da un potenziale atto vandalico, e allerta il personale solo quando necessario, riducendo i falsi allarmi. Oppure un assistente in sala operatoria che segue l'intervento attraverso le telecamere, ascolta le comunicazioni del team chirurgico, e fornisce informazioni rilevanti senza che nessuno debba distogliere lo sguardo dal campo operatorio.
Interazione naturale uomo-macchina
L'IA multimodale promette di rendere l'interazione con le macchine sempre più simile a quella tra esseri umani. Invece di digitare comandi o cliccare bottoni, potremo parlare, mostrare, gesticolare. "Guarda questa fattura" — e il sistema la analizza. "Senti questo rumore del motore" — e il sistema diagnostica il problema. "Fammi vedere come apparirebbe questa stanza con le pareti verdi" — e il sistema genera una visualizzazione in tempo reale.
Per un Paese come l'Italia, dove la comunicazione è ricca di gestualita', espressioni facciali e sfumature tonali, un'IA che comprende tutte queste modalità è un'IA che finalmente può capire veramente cosa intendiamo.
Modelli specializzati per domini italiani
Una delle evoluzioni più promettenti è la creazione di modelli multimodali specializzati per domini specifici dell'eccellenza italiana. Un modello addestrato specificamente sull'arte rinascimentale che conosce ogni pennellata di ogni maestro. Un modello esperto di vini italiani che analizza colore, etichetta e note di degustazione con la competenza di un sommelier. Un modello per la moda che comprende le tradizioni sartoriali italiane e sa distinguere un taglio napoletano da uno milanese.
Questi modelli specializzati, più piccoli e meno costosi dei grandi modelli generalisti, potrebbero rappresentare un'opportunità unica per le imprese italiane di creare vantaggi competitivi basati sulla conoscenza di dominio.
Il percorso verso una percezione più umana
In ultima analisi, l'IA multimodale ci avvicina a sistemi che percepiscono il mondo in modo più simile a come lo percepiamo noi. Non è ancora la coscienza, non è ancora la comprensione profonda che caratterizza l'esperienza umana. Ma è un passo significativo verso macchine che non si limitano a elaborare simboli astratti, ma che fondano la loro comprensione su molteplici canali sensoriali, proprio come facciamo noi.
Per le imprese e la società italiana, la sfida è duplice: cogliere le opportunità enormi di questa tecnologia, e farlo in modo che rispetti i valori di creatività, qualità e centralità della persona che caratterizzano il meglio della tradizione italiana.
— Centro Studi CID