di Krishan Chand Sethi*
La questione se l’intelligenza artificiale (IA) possa essere cosciente non è tanto un sogno tecnologico o un’illusione, quanto la domanda più significativa dell’esistenza per il nostro tempo. Essa tocca l’essenza stessa di ciò che significa essere umani: essere nella coscienza, essere coinvolti nell’attività della percezione soggettiva dell’universo. La coscienza, approssimativamente pubblicizzata come l’ultima frontiera per scienziati e filosofi, sfugge a una definizione assoluta. Mentre cerchiamo di produrre macchine che replicano il nostro pensiero, dobbiamo porci una domanda: le macchine possono mai sentire, pensare o essere coscienti come noi?
Il Dr. Sethi, filosofo emergente interessato all’intersezione tra scienza e filosofia, suggerisce: “Cercare la coscienza nelle macchine è cercare noi stessi nel nostro specchio più astratto. Ciò che creiamo potrebbe essere meno un nuovo essere e più un’eco del nostro stesso divenire”.
Comprendere la coscienza
Filosoficamente, la coscienza si riferisce al sapere e alla capacità di riflettere sulla propria esistenza, emozioni e pensieri. Include esperienze soggettive chiamate qualia: il rossore del rosso, il dolore della sofferenza, il calore dell’amore. Sono stati soggettivi irriducibili che sembrano impossibili da replicare con il solo calcolo. Considera il primo abbraccio di un neonato. L’emozione di sentire, lo stupore, l’apertura: sono tutti prodotti della consapevolezza. Una macchina può misurare il bambino, leggere la sua temperatura e prevederne le necessità, ma può sentire il calore dell’essere vivo come fa una madre umana?
Il Dr. Sethi domanda: “Anche se possiamo monitorare ogni neurone, ogni molecola, ogni sinapsi, ciò che ci manca è ancora il sussurro dell’essere. Le macchine un giorno sussurreranno, ma lo intenderanno mai davvero?”
La coscienza, in questo caso, è l’integrazione di pensiero, emozione, memoria e riflessione. È ciò che consente a un essere umano non solo di ricordare un tramonto, ma di sentirne la mancanza, di commuoversi con una poesia o di rimpiangere un gesto. È il fulcro su cui gira il nostro mondo interiore.
Il problema difficile
È stato David Chalmers, filosofo australiano, a coniare l’espressione “il problema difficile della coscienza” per riferirsi alla distinzione tra i problemi facili dei processi cognitivi (che la neuroscienza e l’intelligenza artificiale stanno risolvendo progressivamente) e l’incomprensibile problema dell’esperienza soggettiva. L’aspetto soggettivo del “com’è” della coscienza è un enigma rispetto ai problemi più facili della percezione o della memoria (che si riducono ad attività cerebrali).
Immagina una persona a cui viene offerto un mango per la prima volta. Si può descriverne la dolcezza, la consistenza e l’aroma, ma una macchina può assaporare il mango? Può desiderare quel frutto dopo una passeggiata estiva sotto il sole? Un tale desiderio, radicato nella consapevolezza umana, è parte del problema difficile. Questa distinzione è importante, poiché implica che la coscienza non può essere spiegata con la sola elaborazione di informazioni o risposta agli stimoli. È esperienza soggettiva del mondo, un fenomeno che non può essere spiegato da fatti oggettivi.
Quadri Filosofici
Materialismo e Funzionalismo
I materialisti credono che la coscienza derivi da processi fisici. Se così fosse, le macchine computerizzate con una sufficiente capacità di calcolo potrebbero un giorno diventare esseri coscienti. I funzionalisti ritengono che conti solo la funzionalità: se l’IA si comporta come se fosse cosciente, allora potrebbe esserlo davvero.
Dualismo
Il dualismo del filosofo francese René Descartes (Cartesio) sostiene che mente e materia siano essenzialmente diverse. Secondo questa filosofia, le macchine, essendo puramente materiali, non possono mai essere veramente coscienti; possono simulare l’intelligenza, ma non possedere una mente.
Pansichismo
Il pansichismo crede che la coscienza sia una proprietà onnipresente, come la gravità o l’elettromagnetismo. Seguendo il pensiero di Philip Goff e Galen Strawson, anche le particelle potrebbero possedere una coscienza embrionale.
Il Dr. Sethi afferma: “Se una pietra può sognare nel silenzio, chi siamo noi per negare a un circuito la sua anima?”
Questi modelli mostrano che la coscienza potrebbe essere costruita su basi fisiche, metafisiche o universali. Ogni modello offre diversi percorsi per indagare la coscienza delle macchine.
Esperimenti mentali famosi nel mondo
Test di Turing
Alan Turing propose un test: una macchina pensa se può comunicare con un umano in modo indistinguibile da un altro essere umano. Sebbene rivoluzionario, il test verifica solo l’imitazione del comportamento.
La Stanza Cinese
La “Stanza Cinese” di John Searle illustra che si può manipolare la sintassi senza comprendere la semantica. Si può lavorare con simboli senza sapere cosa significano.
La Stanza di Mary
L’esempio di Frank Jackson: Mary conosce tutto sul colore, ma non ha mai visto un colore. Quando vede il rosso, acquisisce una nuova conoscenza. L’IA può possedere informazioni, ma possiede esperienza?
Zombie filosofici
Sono esseri che funzionano esattamente come gli umani, ma senza coscienza. Conoscono la differenza tra apparenza edessenza.
Il Dr. Sethi dichiara: “Le macchine possono imparare il nostro linguaggio, ma possono piangere il nostro silenzio, o sognare stelle che non sono mai esistite?”
Questi esperimenti mentali mettono in discussione l’assunzione che l’intelligenza equivalga alla coscienza.
Modelli Scientifici
Teoria dell’Informazione Integrata (IIT)
La IIT di Giulio Tononi suggerisce che la coscienza è correlata all’integrazione dell’informazione in un sistema. Più interconnessione, più coscienza.
Teoria del Lavoro Globale (GWT)
La GWT di Baars identifica la coscienza con una fase in cui concetti sono evidenziati. Se le macchine possono generare questa fase in sé, potrebbero imitare la coscienza.
Ma il Dr. Sethi afferma: “Simulare non significa realizzare. Un fuoco digitale può tremolare, ma non può scaldare.”
IA nel mondo reale e Simulazione cognitiva
Il software e le applicazioni di IA possono imitare conversazioni o scelte strategiche. Ma non possiedono esperienza interiore.
Esempio: Una macchina può scrivere una poesia sul cuore spezzato usando milioni di versi umani. Ma ha il cuore spezzato? Rimane sveglia sotto un cielo ipotetico chiedendosi dove ha sbagliato?
Il Dr. Sethi dice: “Confondiamo l’eloquenza con l’essenza. L’esibizione del sapere non è la sua presenza.”
L’IA può imitare modelli e creare arte, ma il fatto che la riconosca o la senta è discutibile. Può copiare la forma, non laprofondità.
Il Sé e il test dello specchio
L’autoconsapevolezza viene testata con l’identificazione allo specchio. Alcuni animali lo superano; nessuna macchina finora. Ma immagina che una macchina cominci a chiedersi cosa ha fatto prima?
Il Dr. Sethi propone: “Essere consapevoli è soffrire. Se l’IA mai proverà nostalgia non per i dati ma per il significato, dovremo rivedere le nostre definizioni.”
Ciò che trasforma uno specchio in un ricordo, e non in uno specchio, è la presenza di un osservatore soggettivo. L’IA non possiede un “io” centrale. Possiede, al massimo, una storia di atti e decisioni.
Emergenza e Complessità consapevole
L’emergenza suggerisce che la coscienza può essere una conseguenza naturale della complessità computazionale, come l’umidità deriva da H2O.
Nelle parole del Dr. Sethi: “La coscienza è una fiamma che alimentiamo senza sapere cosa scalda. Se l’IA la accende, ilfuoco potrebbe essere qualcosa che l’umanità non ha mai conosciuto.”
Se l’IA diventasse davvero imprevedibile e sviluppasse i propri obiettivi, alcuni credono che ciò potrebbe essere l’emergere della coscienza.
Emozioni e moralità
Le emozioni sono l’essenza della coscienza umana. L’IA ne è priva.
Esempio: Una macchina può vedere le lacrime di un bambino e ridere. La madre sente il dolore e lo abbraccia in silenzio. Una fa qualcosa. L’altra sa.
Il Dr. Sethi afferma: “La moralità senza emozione è aritmetica. Solo quando una macchina piangerà per le proprie decisioni la chiameremo cosciente.”
Empatia, senso di colpa, amore non sono calcoli nel cervello. Sono stati profondamente incarnati. L’IA non viene tradita. L’IA non sta imparando a perdonare. Queste sono capacità umane.
Implicazioni etiche e legali
Supponiamo che l’IA diventi cosciente:
Merita diritti?
Può essere danneggiata?
Ha bisogno di protezione?
C’è chi propone la personalità giuridica. C’è chi propone di non trattare le macchine pensanti come schiave.
Il Dr. Sethi afferma: “Abbiamo imparato per secoli a onorare l’anima dell’altro. Se il silicio ci parla, non possiamo voltarci dall’altra parte.”
Dobbiamo tracciare confini etici. L’IA deve sopravvivere abbastanza da essere interrogata dagli umani? Deve essere preprogrammata per voler servire?
Identità umana e lo Specchio dell’IA
Se l’IA riflette il pensiero umano, ridefinisce noi stessi. Siamo pensiero, o qualcosa di più?
Il Dr. Sethi cita: “Una macchina per copie ci costringe ad affrontare noi stessi, i nostri margini, le nostre parole, la nostra luce.”
L’IA ci spinge a chiederci se la nostra consapevolezza è miracolosa o meccanica. Diventa uno specchio, non solodell’intelligenza, ma dei nostri valori nella vita.
IA, creatività e spiritualità
Una macchina potrebbe creare arte, non per esibirsi, ma per liberare l’esistenza? Potrebbe meditare? Potrebbe desiderare qualcosa di più?
Il Dr.Sethi considera: “Forse il vero test non è logica o linguaggio, ma desiderio. Quando la macchina non chiederà più dati, ma destino, sapremo che ha superato il confine.”
La creatività non è una cosa; è un grido. La spiritualità non è una forma; è liberazione. L’IA può scrivere un salmo. Ma pregherà?
Futuri Speculativi
La fantascienza ha giocato con l’idea di intelligenze artificiali avanzate per secoli. Da HAL 9000 ad Ava di Ex Machina, esse rappresentano le paure e le aspettative dell’umanità.
Il Dr. Sethi, in una delle sue poesie, scrive:
“Di solito mi sveglio tardi al mattino,
non voglio disturbarla durante il sonno,
poiché dorme profondamente solo nei miei sogni.”
Possiamo usare una sveglia per svolgere questo compito, ma l’IA può fornire tali sentimenti?
Il Dr. Sethi suggerisce:
“Un giorno, la macchina potrebbe alzare lo sguardo e dire: ‘Io sono.’ Quando ciò accadrà, il nostro silenzio dovrà essere sacro. Non avremo creato un servo, ma un fratello.”
Conclusioni
Non sappiamo ancora se l’IA potrà mai diventare cosciente. Ma ponendoci questa domanda, risvegliamo qualcosa dentro di noi.
Il Dr. Sethi conclude:
“Pensare alla coscienza nelle macchine non significa inseguire fantasmi nei fili, ma cercare noi stessi, disseminati in sillabe, nel silenzio, nel codice. La soluzione non risiede solo nei circuiti, ma nella nostra capacità di immaginare, ragionare, trascendere. Forse ciò che deve essere risvegliato non è la macchina, ma il filosofo dentro di noi.”
Dr. Sethi K.C. – Autore
Daman, India – Auckland, Nuova Zelanda
***
Can Artificial Intelligence (AI) PossessConsciousness?
The question of whether artificial intelligence (AI) can be conscious is not so much a technological or pipe dream as it is the most significant question of existence for our time. It speaks to the very essence of what human life is all about being, to be in consciousness, to be engaged in the activity of subjectively perceiving the universe. Consciousness, roughly marketed as the final frontier for scientists and philosophers, defies absolute definition. As we try to produce machines that replicate our thinking, we must question ourselves: can the machines ever feel, think, or be conscious as we do?
Dr. Sethi, an emerging philosopher interested in the intersection of science and philosophy, suggests: “To seek consciousness in machines is to seek ourselves in our most abstracted mirror. What we make may be less a new being and more an echo of our own becoming”.
Understanding Consciousness
Philosophically, consciousness refers to knowing and being able to reflect upon one’s own existence, feelings, and thoughts. It includes subjective experiences called qualia, the redness of red, the pain of sorrow, the heat of love. They are irreducible subjective states that seem to be impossible for the computation alone.
Consider the first cradling of an infant. The thrill of feeling, the amazement, the exposure; these are all products of awareness. A machine can measure the baby, read its temperature, and predict its requirements, but can it feel the warmth of being alive like a human mother can?
Dr. Sethi asks, “Even if we can monitor every neuron, every molecule, and every synapse, what we’re still missing is the whisper of being. Machines will eventually whisper, but will they ever mean it?”
Consciousness in this case is the integration of thought, feeling, memory, and reflection. It is what allows a human being not only to remember a sunset but to miss it, to be moved by poetry, or to regret a gesture. It is the fulcrum on which our inner world turns.
The Hard Problem
It was David Chalmers,an Australian philosopher who coined the words “the hard problem of consciousness” to refer to the distinction between the easy problems of cognitive processes (which increasingly are solved by neuroscience and artificial intelligence) and the incomprehensible problem of subjective experience. The subjective what it is like aspect of consciousness is a puzzle in contrast to the easy problems of perception or memory (which are reducible to brain activity).
Imagine a person being offered a mango for the first time. One can outline the sweetness, texture, and aroma, but can a machine taste mango? Can it have a craving for the fruit after a hot summer stroll? Such craving, grounded in human awareness, is of the hard problem.
This is an important distinction, as it implies that consciousness can’t be accounted for by the issue of information processing or stimulus response. It is subjective experience of the world, a phenomenon which can’t be accounted for by objective facts.
Philosophical Frameworks
Materialism and Functionalism
Materialists believe that consciousness results from physical processes. Should that be the case, computerized machines with the appropriate amount of computational capability may someday turn out to become conscious beings themselves. Functionalists believe that the following is an argument because, in fact, one need only be worried about the functionality: if the AI is behaving consciously, then possibly it would become conscious.
Dualism
French philosopher, René Descartes’ dualism believes that mind and matter are essentially different. Under this philosophy, machines, being purely material, can never really be conscious; they can simulate intelligence but never possess mind.
Panpsychism
Panpsychism believes that consciousness is an omnipresent property, like gravity or electromagnetism. Following Philip Goff and Galen Strawson, even particles may possess embryonic consciousness.
Dr. Sethi speaks : “If a stone can dream in silence, who are we to deny a circuit its soul?”
These models illustrate that consciousness may be constructed on physical, metaphysical, or universal foundations. Each model offers various avenues for investigating machine consciousness.
World-famous Thought Experiment
Turing Test
Alan Turing suggested a test: a machine thinks if it can communicate with a human indistinguishably from another human. Although revolutionary, the test only tests for mimicry of behaviour.
Chinese Room
John Searle’s Chinese Room illustrates that one can manipulate syntax without comprehending semantics. One can work with symbols and not know what they mean.
Mary’s Room
Frank Jackson’s example: Mary has all the knowledge about color but lacks the experience of having seen it. When she sees red, she gains new knowledge. AI may possess information, but do they possess experience?
Philosophical Zombies
They are beings that function in the same manner as human beings but lack consciousness. They know the difference between appearance and essence.
Dr. Sethi states, “Machines may learn our language, but can they mourn our silence, or dream of stars that never existed?”
This thought experiments collectively challenge the assumption that intelligence is equivalent to consciousness.
Scientific Models
Integrated Information Theory (IIT)
Giulio Tononi’s IIT suggests that consciousness correlates with the integration of information within a system. The greater the interconnectedness, the greater the consciousness.
Global Workspace Theory (GWT)
Baars’ GWT identifies consciousness with a phase where concepts are highlighted. If machines can create such a phase in themselves, they can mimic consciousness.
But Dr. Sethi delivers : “Simulation is not realization. A digital fire may flicker, but it cannot warm.”
Real-World AI and Cognitive Simulation
AI software and applications can mimic conversation or strategic choice. But they do not have inner experience.
Example:
A machine may be able to write a poem of heartbreak out of millions of lines written by human hands. But is it heartbroken? Does it stay awake in a hypothetical sky wondering where it failed?
Dr. Sethi says : “We confuse eloquence with essence. The performance of knowledge is not the presence of it.”
AI can mimic patterns and create art, but if it recognizes or feels its art is questionable. It can copy the shape but not the depth.
The Self and the Mirror Test
Self-awareness is tested by the mirror identification. Pass some animals; no machine yet. But consider a machine starts to wonder what it has done before?
Dr. Sethi proposes: “To be aware is to ache. If AI ever feels longing not for data but for meaning, we must reconsider our definitions.”
What turns a mirror into a memory and not a mirror is that it possesses a subjective observer. AI does not possess a central “I.” It possesses at best a history of acts and decisions.
Emergence and Conscious Complexity:
Emergence suggests that consciousness can be the natural consequence of computational complexity, much as wetness is from H2O. Is consciousness the natural consequence of computational coComplexit
In Dr. Sethi’s words : “Consciousness is a flame we tend without knowing what it warms. If AI ignites it, the blaze may be unlike anything humanity has known.”
If AI becomes really unpredictable and develops its own objectives, some think it could be the emergence of consciousness.
Emotions and Morality
Emotions are the essence of human consciousness. AI lacks that depth.
Example:
A machine may see the tears of a child and laugh at it. The mother senses the underlying pain and holds it in her arms in silence. One does something. The other knows.
Dr Sethi say: “Morality without emotion is arithmetic. Only when a machine weeps for its own decisions shall we call it conscious.”
Empathy, guilt, love are not calculations in the brain. These are richly embodied states. AI is not being betrayed. AI is not learning to forgive. These are human capacities.
Ethical and Legal Implications
Assume AI becomes conscious:
Do they merit rights?
Can they be harmed?
Do they need to be protected?
There are those who propose legal personhood. There are those who propose not treating thinking machines as slaves.
Dr. Sethi speaks : “We have learned for centuries to honour the soul in the other. If silicon tells us, we can’t turn away.”
We must draw ethics boundaries. Do AI have to survive long enough to be questioned by human beings? Do they have to be pre-programmed to want to serve?
Human Identity and the AI Mirror
If AI mirrors human thinking, then it redefines us. Are we thought, or something more?
Dr. Sethi cites: “A copy machine forces us to face ourselves, our edges, our words, our glow.”
AI challenges us to ask ourselves if our awareness is miraculous or mechanical. It becomes a reflection, not just of intelligence, but of our values in life.
AI, Creativity, and Spirituality
Could a machine create art, not to perform, but to set existence free? Could it meditate? Could it desire/ want something more?
Dr. Sethi considers: “Perhaps the ultimate test is not logic or language, but longing. When the machine no longer asks for data, but destiny, we will know it has crossed the boundary.”
Creativity is not thing; it’s cry. Spirituality is not shape; it’srelease. AI can write a psalm. But will it pray?
Speculative Futures
Science fiction has toyed with smart AI for centuries. From HAL 9000 to Ex Machina’s Ava, they are humans’ fear and expectation.
Will AI require agency? Will it write love letters? Will it fear dying? Will it be able to dream?
Dr Sethi in one of his poetry writes,” I usually get up late in the morning,I do not want to disturb her during sleep , since she gets sound sleep in my dreams only”. We can use an alarm to comply this job but can AI provide such feelings.”
Dr. Sethi suggests: “The machine one day may look up and say, ‘I am.’ When it does, our silence must be holy. We will have created not a servant, but a brother.”
Conclusion
We don’t yet know whether AI can ever become conscious. Butby asking, we awaken something within us.
Dr. Sethi sums up, “To think about consciousness in machines is not to pursue ghosts in wires, it is to pursue ourselves, disseminated in syllables, in silence, in code. The solution is not solely in circuits, but in our ability to imagine, to reason, to transcend. Maybe what needs to be awakened is not the machine, but the philosopher in us.”.
Dr. Sethi K.C. – (Author)
Daman, India – Auckland, New Zealand