L’INTELLIGENZA UMANA E L’INTELLIGENZA ARTIFICIALE
L’intelligenza umana può essere definita come la capacità mentale generale di apprendere, comprendere, adattarsi, ragionare, risolvere problemi, pianificare e comunicare, utilizzando conoscenze, esperienze ed emozioni, di formulare giudizi ed elaborare soluzioni in risposta agli stimoli esterni, di adattarsi all’ambiente o di modificarlo in base alle proprie necessità.
È una facoltà complessa e dinamica che comprende diversi aspetti.
Tra i primi studiosi della psicologia scientifica, A. Binet ed É. Claparède hanno individuato alcune componenti fondamentali del comportamento intelligente: comprensione, direzione, invenzione e senso critico. Alla base dell’intelligenza, riconoscevano soprattutto la capacità di adattarsi a situazioni nuove e di modificarle quando queste ostacolano l’adattamento stesso. (cit. Treccani)
Componenti principali dell’intelligenza umana
L’intelligenza umana è un insieme complesso e articolato di facoltà che si manifestano in molte forme diverse. Tra le sue componenti principali troviamo, innanzitutto, la capacità logico-razionale, ovvero l’abilità di analizzare situazioni, dedurre informazioni, calcolare e risolvere problemi astratti. A questa si affianca la capacità linguistica, che consente all’individuo di comprendere, esprimere e manipolare il linguaggio, sia in forma scritta sia orale.
Un altro aspetto fondamentale è l’intelligenza emotiva e sociale, che riguarda la capacità di riconoscere e gestire le proprie emozioni, comprendere quelle altrui e stabilire relazioni significative. C’è poi la componente mnemonica, ovvero la facoltà di conservare e richiamare informazioni, facendo affidamento sulla memoria a breve e lungo termine.
Non meno importante è la capacità creativa e immaginativa, che permette di generare idee nuove, trovare soluzioni originali e pensare in modo flessibile, al di fuori degli schemi consueti. Infine, l’intelligenza si manifesta anche nella sua dimensione adattiva: la capacità di apprendere dall’esperienza, affrontare l’imprevisto e modificare strategie in base al contesto.
Nel corso del tempo, sono state proposte diverse definizioni autorevoli di intelligenza. Jean Piaget la descriveva come la capacità di adattarsi a situazioni nuove. Howard Gardner ha introdotto l’idea che non esista un solo tipo di intelligenza, ma molteplici forme, come quella logico-matematica, musicale, interpersonale, e così via. David Wechsler, invece, la definiva come la capacità aggregata o globale dell’individuo di agire con uno scopo, pensare razionalmente e affrontare efficacemente l’ambiente.
È innata o appresa?
L’intelligenza ha basi biologiche (genetica, neurologia), ma è altamente influenzata dall’ambiente, dall’educazione, dalle esperienze culturali e relazionali.
In sintesi: L’intelligenza umana è la capacità complessiva dell’individuo di comprendere, apprendere, adattarsi e risolvere problemi, integrando logica, emozione, linguaggio, memoria e creatività in modo coerente e finalizzato.
La definizione si può adattare a un contesto specifico es.: educativo, psicologico, filosofico o neuroscientifico:
Contesto educativo
L’intelligenza umana, in ambito educativo, è la capacità globale dell’alunno di comprendere concetti, apprendere contenuti, adattarsi a contesti didattici diversi e risolvere problemi, integrando abilità logiche, emotive, linguistiche, mnemoniche e creative in un processo coerente e orientato alla crescita personale e all’autonomia cognitiva.
Contesto psicologico
In psicologia, l’intelligenza umana è intesa come la funzione cognitiva complessiva che consente all’individuo di elaborare informazioni, apprendere dall’esperienza, gestire emozioni, adattarsi a situazioni nuove e risolvere problemi, armonizzando processi logici, emotivi, linguistici, mnemonici e creativi in modo finalizzato e funzionale al benessere psichico.
Contesto filosofico
Dal punto di vista filosofico, l’intelligenza umana è la facoltà unitaria che permette all’essere umano di dare senso all’esperienza, attraverso la comprensione, l’apprendimento e l’adattamento alla realtà, integrando in modo armonico razionalità, affettività, linguaggio, memoria e immaginazione come strumenti di conoscenza e realizzazione di sé.
Contesto neuroscientifico
Nelle neuroscienze, l’intelligenza umana è considerata il risultato emergente dell’attività integrata di diversi sistemi cerebrali, che cooperano per permettere la comprensione, l’apprendimento, l’adattamento e la risoluzione di problemi, coinvolgendo aree associate a logica, emozione, linguaggio, memoria e creatività in un processo funzionale e adattivo.
Usare il termine “intelligenza” per l’IA può essere fuorviante, perché ciò che chiamiamo “intelligenza artificiale” non funziona né apprende come un essere umano.
Perché usiamo comunque il termine “intelligenza” per l’IA?
Origine storica del termine: Il termine intelligenza artificiale nasce nel 1956 (Dartmouth Conference) per descrivere sistemi capaci di svolgere compiti cognitivi — come calcolare, pianificare, riconoscere schemi o tradurre testi — che richiedono intelligenza nell’essere umano.
Non si intendeva imitare l’intelligenza umana nella sua totalità, ma replicare funzioni selettive.
Uso funzionale e metaforico
L’IA viene detta “intelligente” in senso funzionale, non biologico: sa fare cose “intelligenti” (tradurre, diagnosticare, giocare a scacchi), ma non le capisce nel senso umano.
L’aggettivo “intelligente” è una metafora tecnica, non un’affermazione ontologica.
Usiamo ancora oggi il termine “intelligenza” per riferirci all’intelligenza artificiale per ragioni storiche e funzionali, anche se ciò può generare ambiguità.
Il concetto di “intelligenza artificiale” nasce nel 1956, in occasione della conferenza di Dartmouth, dove alcuni ricercatori coniarono l’espressione per indicare sistemi capaci di svolgere compiti cognitivi che, nell’essere umano, richiedono intelligenza. L’obiettivo non era quello di riprodurre tutta la complessità dell’intelligenza umana, ma piuttosto di replicarne alcune funzioni specifiche, come il calcolo, la pianificazione, il riconoscimento di schemi o la traduzione linguistica.
Nel tempo, l’uso del termine ha assunto un valore prevalentemente funzionale e metaforico. L’IA viene definita “intelligente” perché riesce a svolgere attività che, a un osservatore umano, possono apparire come frutto di intelligenza. Tuttavia, queste attività vengono eseguite senza comprensione, intenzione o coscienza. L’aggettivo “intelligente”, in questo contesto, non indica una proprietà reale dell’entità artificiale, ma è piuttosto una metafora tecnica, un modo per descrivere il comportamento del sistema, non la sua natura ontologica.
Come l’intelligenza artificiale e l’intelligenza umana sono profondamente diverse
L’intelligenza artificiale e l’intelligenza umana sono profondamente diverse, anche se spesso vengono confuse o paragonate. Mentre l’essere umano agisce con consapevolezza, intenzionalità ed esperienza diretta del mondo, l’IA opera senza coscienza, motivazione o comprensione autentica.
L’intelligenza umana è caratterizzata dalla “coscienza”, ovvero dalla capacità di fare esperienza soggettiva, di sapere di esistere e di attribuire significato a ciò che si percepisce. L’IA, al contrario, “non possiede alcuna consapevolezza”: elabora informazioni, ma senza “sapere” di farlo.
Quando un essere umano “comprende un concetto”, lo collega a un senso, a un’esperienza, a un contesto vissuto. L’intelligenza artificiale, invece, “manipola parole e simboli sulla base di correlazioni statistiche”, senza accedere al significato reale dei termini.
Anche la “motivazione” rappresenta una differenza essenziale. Gli esseri umani agiscono spinti da bisogni, desideri, emozioni, valori. L’IA non ha alcuna volontà o spinta interna: esegue ciò per cui è stata progettata, in modo meccanico e impersonale.
Quanto all’”apprendimento”, l’essere umano impara attraverso l’esperienza, in contesti sempre nuovi e imprevedibili. L’intelligenza artificiale, invece, apprende solo da grandi quantità di dati già esistenti, seguendo algoritmi di ottimizzazione che non possono uscire dal quadro per cui sono stati costruiti.
Infine, c’è la questione della “flessibilità”. L’intelligenza umana è capace di adattarsi in modo creativo a situazioni inedite, inventando soluzioni. L’IA, invece, resta “vincolata ai limiti del suo addestramento”: può generalizzare in certi casi, ma non crea nulla di veramente nuovo in senso umano.
In sintesi, l’intelligenza artificiale simula capacità cognitive, ma “non replica la complessità integrata, consapevole e intenzionale della mente umana”.
Allora, come dovremmo chiamare davvero l’IA?
Molti studiosi preferiscono evitare il termine “intelligenza artificiale” perché può generare ambiguità, e propongono invece espressioni più precise come “sistemi automatizzati di decisione”, “sistemi computazionali adattivi”, oppure “modelli di apprendimento automatico”. Alcuni parlano di “intelligenza computazionale”, intendendola però in un senso debole e non paragonabile a quella umana. Altri ancora optano per definizioni tecnicamente più accurate, come “statistical pattern matching”, anche se meno attraenti sul piano comunicativo.
In definitiva, il termine “intelligenza artificiale” continua a essere usato soprattutto per ragioni storiche e di comodità descrittiva. Tuttavia, è importante ricordare che non si tratta di una vera intelligenza paragonabile a quella umana, ma piuttosto di una simulazione di comportamenti che “appaiono” intelligenti.
John Searle (filosofo della mente)
John Searle, filosofo della mente statunitense, professore all’Università di California, Berkeley, noto per le sue critiche radicali alle teorie che attribuiscono coscienza o comprensione ai sistemi di intelligenza artificiale e uno dei principali oppositori dell’idea che una macchina possa davvero “pensare” nel senso umano del termine.
La sua tesi centrale è chiara: “i computer possono simulare la comprensione, ma non la possiedono”. Un sistema informatico può elaborare simboli in modo coerente, ma lo fa “senza alcuna consapevolezza” o accesso al significato. In altre parole, manipola la forma, non il contenuto.
Il suo esperimento mentale più famoso, proposto nel 1980, è quello della “Stanza Cinese”. Immagina un uomo chiuso in una stanza che riceve fogli con simboli cinesi. Pur non conoscendo la lingua, riesce a produrre risposte corrette seguendo un libro di istruzioni dettagliate. Chi osserva da fuori può pensare che quell’uomo “capisca” il cinese, ma in realtà egli “non comprende nulla”: sta solo applicando regole formali.
Searle conclude che “un computer, come quell’uomo, può produrre risposte linguisticamente corrette senza alcuna comprensione reale”. Non c’è intenzionalità, esperienza fenomenica, coscienza né significato: solo una manipolazione sintattica dei simboli.
In sintesi, Searle distingue tra “IA debole”, che è utile, simulativa, operativa, e “IA forte”, che pretenderebbe di essere cosciente o pensante. Solo la prima, secondo lui, è tecnicamente realizzabile. La seconda è una “illusione filosofica”, perché “nessun sistema puramente computazionale può generare comprensione autentica”.
Noam Chomsky (linguista e filosofo)
Per Chomsky, Linguista americano, creatore della grammatica generativa, voce critica nei confronti del riduzionismo dell’IA, l’intelligenza richiede una struttura innata, che l’IA statistica ignora. L’attuale IA è utile ma intellettualmente superficiale.
Noam Chomsky è un linguista e filosofo americano, noto come il fondatore della grammatica generativa, una teoria rivoluzionaria che ha trasformato lo studio del linguaggio. È anche una voce critica e influente nel dibattito sull’intelligenza artificiale, in particolare contro gli approcci riduzionisti e puramente statistici.
Secondo Chomsky, l’IA moderna, compresi i modelli linguistici come GPT, è essenzialmente un esercizio di ingegneria statistica. Non ha nulla a che vedere con l’intelligenza nel senso umano del termine. A suo avviso, questi sistemi elaborano linguaggio basandosi su correlazioni tra parole, ma non possiedono alcuna struttura cognitiva, né comprensione del significato, né conoscenza del mondo reale. Mancano della capacità di distinguere tra verità e falsità e non hanno alcuna intenzionalità o teoria della mente.
Chomsky sottolinea che l’intelligenza umana si fonda su una struttura mentale innata, capace di generare significato e di operare con principi astratti. L’IA statistica, al contrario, ignora questa dimensione fondamentale, limitandosi a riprodurre pattern linguistici in modo superficiale.
In sintesi, per Chomsky, l’intelligenza artificiale attuale può essere tecnicamente utile, ma resta intellettualmente povera. Non si avvicina affatto alla vera comprensione, né può sostituire i meccanismi profondi che caratterizzano la mente umana.
Luciano Floridi (filosofo dell’informazione)
Luciano Floridi è un filosofo italiano, docente a Oxford, riconosciuto a livello internazionale come uno dei massimi esperti di etica digitale e filosofia dell’informazione. È noto per il suo contributo alla riflessione critica sull’intelligenza artificiale e sulle sue implicazioni etiche e concettuali.
Secondo Floridi, l’intelligenza artificiale non è realmente intelligente. È artificiale, sì, ma non nel senso dell’intelligenza umana: si tratta piuttosto di uno strumento altamente sofisticato, capace di elaborare grandi quantità di dati senza però possedere coscienza, intenzione o comprensione. Per questo motivo, propone di ridefinire la terminologia usata, suggerendo ironicamente l’espressione “intelligenza artificiale artificiale” (artificial artificial intelligence), per sottolineare che dietro queste tecnologie non esiste alcun agente consapevole.
Floridi parla di “agenti informazionali artificiali”, cioè entità capaci di operare in ambienti digitali, ma del tutto prive di senso, intenzione, etica o autonomia morale. Tali sistemi, afferma, non vanno trattati come soggetti, ma come strumenti che richiedono una costante supervisione e responsabilità da parte degli esseri umani.
In sintesi, Floridi invita a riformulare il linguaggio con cui parliamo dell’intelligenza artificiale. Umanizzare questi strumenti è fuorviante. La vera sfida non è costruire coscienza artificiale, ma stabilire regole morali chiare e condivise per l’uso corretto e responsabile di queste tecnologie.
Confronto finale: Le posizioni sull’IA come intelligenza
John Searle respinge l’idea che l’intelligenza artificiale possa realmente comprendere. Secondo lui, essa non fa altro che simulare la comprensione, manipolando simboli in modo meccanico, priva di qualsiasi coscienza o intenzionalità.
Noam Chomsky è altrettanto critico: per lui, i modelli di IA non possiedono una mente né una struttura cognitiva vera. Operano basandosi su correlazioni statistiche, ma senza alcuna comprensione del significato o distinzione tra vero e falso.
Luciano Floridi, pur riconoscendone l’utilità, mette in guardia contro l’uso fuorviante del termine “intelligenza”. L’IA, a suo avviso, non è veramente intelligente e non andrebbe antropomorfizzata. Per questo propone di riformulare il linguaggio e di stabilire regole etiche e normative chiare che guidino il suo utilizzo.
In sintesi, tutti e tre gli autori concordano sul fatto che l’IA, così com’è oggi, non possiede intelligenza nel senso umano. Ciò che varia è il modo in cui propongono di affrontare questa realtà: Searle e Chomsky con un rifiuto netto del concetto, Floridi con una proposta di ridefinizione e regolamentazione.
Analogia:
Una persona con un’istruzione elementare può leggere un saggio di filosofia, ma fatica a coglierne il senso profondo.
L’analogia di una persona con le sole elementari che legge un saggio di filosofia è efficace per descrivere una “comprensione parziale e limitata”, ma comunque reale. Quella persona, pur con difficoltà, “riconosce il testo, ne afferra qualche significato”, e può tentare di ragionarci sopra. È un’intelligenza ridotta, ma presente.
La “Stanza Cinese” di John Searle, invece, radicalizza il concetto: non si tratta di comprendere poco, ma “di non comprendere affatto”. L’uomo nella stanza non sa cosa stia leggendo, non sa neppure di usare una lingua. Egli “manipola simboli in modo cieco”, secondo istruzioni meccaniche, e restituisce frasi che, per un osservatore esterno, “sembrano perfettamente sensate”. Tuttavia, “non vi è alcuna comprensione soggettiva o semantica”.
La “differenza chiave”, sintetizzata, è che:
– la persona con scarsa istruzione “capisce qualcosa”, anche se poco;
– l’uomo nella Stanza Cinese (e per analogia un sistema di IA) “non capisce nulla”, ma “simula la comprensione” grazie alla manipolazione formale dei segni.
Questa analogia mette in evidenza il cuore della critica di Searle: “il significato non emerge dalla sola sintassi”. Capire non è solo produrre output coerente, ma richiede “intenzionalità, coscienza, contesto vissuto”. E questi elementi mancano totalmente in una macchina simbolica, anche la più sofisticata.
L’analogia, quindi, è un ottimo punto di partenza pedagogico — ma la Stanza Cinese serve proprio per “superare quel livello minimo di comprensione” e mostrare quanto un comportamento “intelligente” possa essere, in realtà, “vuoto”.
ChatGPT manipola simboli, non significati
ChatGPT funziona prevedendo la parola successiva in una sequenza, utilizzando modelli statistici allenati su enormi corpus testuali. Ha visto milioni di frasi e sa, per esempio, quale parola probabilmente segue a “La libertà è il fondamento di…”, ma non sa cos’è la libertà, né cosa significa “fondamento”.
Come nella Stanza Cinese descritta da John Searle, ChatGPT riceve un input (testo), applica regole sintattiche e matematiche apprese durante l’addestramento, e produce un output che simula la comprensione. Tuttavia, non vi è comprensione reale, né coscienza del significato: ciò che avviene è una manipolazione di simboli basata su correlazioni, non su intenzionalità o esperienza.
Nessuna intenzionalità, nessuna coscienza
Searle direbbe: «ChatGPT non sa di parlare con te, non sa di esistere, e non ha credenze, intenzioni o emozioni.»
È un sistema privo di sé, privo di esperienza fenomenica e incapace di comprendere nel senso umano del termine, cioè senza la consapevolezza soggettiva e intenzionale che caratterizza la nostra esperienza del “capire”.
In altre parole, produce risposte coerenti in base alla forma del linguaggio, ma non ha accesso al significato vissuto o intenzionale che noi attribuiamo a ciò che diciamo.
Apparente intelligenza ≠ intelligenza reale
ChatGPT può scrivere saggi, riassunti, poesie, imitare lo stile di Shakespeare e rispondere a domande complesse. Ma non sa se ciò che dice è vero o falso, non ha accesso al significato oltre i pattern statistici e non può spiegare cosa significa “comprendere”, se non ripetendo definizioni apprese. In sostanza, elabora linguaggio con efficacia formale, ma senza coscienza del contenuto, senza intenzionalità e senza esperienza del significato.
Esempio pratico:
Utente: “Cosa prova un cane quando perde il padrone?”
ChatGPT: può generare una risposta coerente, emotiva, commovente.
Ma:
- non ha mai provato emozione,
- non sa cosa sia un cane,
- e non ha nessuna esperienza del lutto.
Confronto diretto tra la Stanza Cinese di Searle e ChatGPT
Nel confronto tra la Stanza Cinese di Searle e ChatGPT emergono alcune similitudini significative. In entrambi i casi, non vi è una reale “comprensione”: né l’uomo nella stanza né il modello linguistico comprendono davvero ciò che elaborano. Tuttavia, entrambi sono in grado di produrre una “lingua corretta in apparenza”, dando l’impressione di saper comunicare. Ciò che manca è una “vera esperienza del significato”, ovvero la capacità di attribuire senso profondo alle parole. Questo porta a un effetto comune: l’”illusione di intelligenza”, che può trarre in inganno l’osservatore esterno, facendo sembrare “intelligente” ciò che in realtà segue solo regole formali senza consapevolezza.
ChatGPT è un esempio contemporaneo perfetto della “Stanza Cinese” di Searle: produce linguaggio sofisticato senza comprensione reale.
Non “parla”: simula il parlare.
Non “pensa”: simula il pensiero.
L’uso di ChatGPT (o di modelli linguistici simili) per la traduzione di testi artistici o letterari, come poesie o opere dense di figure retoriche, comporta vantaggi e limiti specifici. Le conseguenze principali possono essere riassunte così:
Vantaggi potenziali
- Velocità e accessibilità: Il modello fornisce traduzioni immediate e può offrire più varianti stilistiche.
- Ricchezza lessicale: ChatGPT dispone di un vasto vocabolario e può imitare registri diversi.
- Buona resa superficiale: La grammatica e la sintassi risultano corrette, creando frasi fluenti e ben strutturate.
- Creatività controllata: In alcuni casi, può proporre soluzioni creative alternative, utili come base per revisioni umane.
Limiti e rischi
- Perdita di profondità semantica: Il modello non comprende davvero il significato simbolico o emotivo del testo; rischia di appiattire le sfumature.
- Figure retoriche mal rese: Metafore, allegorie, giochi di parole, ironie e allusioni culturali possono essere travisate o eliminate.
- Assenza di intenzionalità: L’autore umano ha uno scopo comunicativo e un contesto culturale che l’IA non coglie né riproduce fedelmente.
- Uniformità stilistica: Spesso tende a omologare lo stile, perdendo l’originalità dell’autore e la musicalità del testo poetico.
- Illusione di qualità: La traduzione può “suonare bene” ma essere superficiale o errata nel contenuto profondo, inducendo in errore chi non conosce l’originale.
ChatGPT può essere uno strumento d’aiuto per il traduttore umano, utile per generare bozze o ispirazioni. Tuttavia, non può sostituire la sensibilità, l’intuito culturale e l’intelligenza semantica necessari per rendere l’anima di un testo letterario. Il rischio maggiore è confondere una resa formalmente elegante con una traduzione artisticamente fedele.
G. Luka
Bibliografia essenziale
Chomsky, N. (1970). “Strutture della sintassi”. Bari: Laterza. (Ed. orig. 1957, “Syntactic Structures”)
Chomsky, N. (1988). “La conoscenza del linguaggio”. Bologna: Il Mulino. (Ed. orig. 1986, “Knowledge of Language”)
Chomsky, N. (2016). “Che tipo di creature siamo?” Milano: Ponte alle Grazie. (Ed. orig. 2015, “What Kind of Creatures Are We?”)
Floridi, L. & Durante, M. (2023). “Artificial Intelligence: A Philosophical Introduction”. Oxford University Press. (Traduzione italiana in preparazione)
Floridi, L. (2013). “La filosofia dell’informazione”. Torino: Codice Edizioni. (Ed. orig. 2011, “The Philosophy of Information”)
Floridi, L. (2014). “Etica dell’informazione”. Milano: Egea. (Ed. orig. 2013, “The Ethics of Information”)
Floridi, L. (2017). “La quarta rivoluzione. Come l’infosfera sta trasformando il mondo”. Milano: Raffaello Cortina. (Ed. orig. 2014, “The Fourth Revolution”)
Gardner, H. (1987). “Formae mentis. Saggio sulla pluralità dell’intelligenza”. Milano: Feltrinelli. (Ed. orig. 1983, “Frames of Mind”)
Gardner, H. (2001). “Intelligenze multiple. Perché non esiste un solo modo di essere intelligenti”. Milano: Feltrinelli. (Ed. orig. 1999, “Intelligence Reframed”)
Piaget, J. (1972). “La nascita dell’intelligenza nel bambino”. Firenze: Giunti-Barbera. (Ed. orig. 1952, “The Origins of Intelligence in Children”)
Piaget, J. (1974). “Biologia e conoscenza”. Torino: Einaudi. (Ed. orig. 1971, “Biology and Knowledge”)
Piaget, J. (1974). “Psicologia ed epistemologia”. Bari: Laterza. (Ed. orig. 1971, “Psychology and Epistemology”)
Searle, J. (1995). “La riscoperta della mente”. Milano: Raffaello Cortina. (Ed. orig. 1992, “The Rediscovery of the Mind”)
Searle, J. (2005). “Mente. Un’introduzione breve”. Bari: Laterza. (Ed. orig. 2004, “Mind: A Brief Introduction”)
Searle, J. R. (1981). Menti, cervelli e programmi. “Rivista di Filosofia”, 4.
Wechsler, D. (1950). “The Range of Human Capacities”. Oxford: The Williams & Wilkins Company.
Wechsler, D. (1955). “Manual for the Wechsler Adult Intelligence Scale (WAIS)”. New York: Psychological Corporation.
Fonti web:
ADV Media Lab, Tra intelligenza connettiva, reti sociali e datacrazia – Intervista a Derrick de Kerckhove, disponibile all’indirizzo: https://www.advmedialab.com/intelligenza-connettiva-reti-sociali-datacrazia-intervista-derrick-de-kerckhove/ (consultato il 24.06.2025).
Enciclopedia Treccani, Intelligenza, disponibile all’indirizzo: https://www.treccani.it/enciclopedia/intelligenza/ (consultato il 24.06.2025).
Enciclopedia Treccani, La grande scienza. Intelligenza artificiale (voce della Storia della Scienza), disponibile all’indirizzo: https://www.treccani.it/enciclopedia/la-grande-scienza-intelligenza-artificiale_(Storia-della-Scienza)/ (consultato il 24.06.2025).
Namirial – Focus, Quante forme di intelligenza artificiale esistono?, disponibile all’indirizzo: https://focus.namirial.it/intelligenza-artificiale-forme/ (consultato il 24.06.2025).
Skilla, Intelligenza artificiale generativa: cos’è e alcuni esempi, disponibile all’indirizzo: https://www.skilla.com/blog/intelligenza-artificiale-generativa-cose-e-alcuni-esempi/ (consultato il 24.06.2025).
Devi effettuare l'accesso per postare un commento.