La sua presenza si fa sentire in varie aree della vita commerciale e dei consumatori, basta chiedere ad Alexa o a qualsiasi assistente digitale basato sull'intelligenza artificiale con cui parli.
L'intelligenza artificiale copre ancora una gamma limiata degli strumenti software intelligenti, ma in futuro si svilupperà a tal punto che noi come esseri umani dovremo definire chiaramente cosa le è permesso e cosa no. Sarà più intelligente, più intuitiva, saprà improvvisare e in termini di intelligenza sarà superiore alle persone. Attualmente, l'intelligenza artificiale ricorda meglio, suggerisce e prevede più velocemente, ma dipende in gran parte dalle persone, ovvero, da ciò che le persone la chiedono e da cosa la "riempiono" per imparare meglio una certa area.
Rimane comunque il fatto che IA non è del tutto responsabile delle sue azioni ed è ancora lontano dall'improvvisare o inventare cose da sola. IA è in grado di calcolare le opzioni basate su milioni di dati di guida dell'auto, ma non riesce a escogitare le strade, automobili o qualcosa di simile. Può solo gestire ciò che ha di fronte per renderlo un po' migliore, e per questo è ideale per processi autonomi, cioè per ripetizioni.
Chat bot, produzione e gestione dei big data sono i limiti dell'intelligenza artificiale, ma non sarà così per molto tempo, soprattutto quando inizierà l'uso di armi intelligenti. Riguardo a questo, quando l'intelligenza artificiale prende vita in un senso che influenza la vita umana, dovremo sapere determinare bene chi ha la colpa per ciascuna azione.
Ad esempio, viene ordinato il bombardamento di un determinato obiettivo e il controllo viene lasciato all'intelligenza artificiale e i civili vengono uccisi, chi sará responsabile? Un uomo potrebbe fermare l'attacco o assumersene la responsabilità, ma per l'intelligenza artificiale sarà essenziale solo raggiungere l'obiettivo, non saprà determinare cosa c'è di sbagliato nell'usare ogni mezzo per raggiungere quell'obiettivo.
Oppure, durante una guida autonoma, l'IA girerà verso un muro o continuerà dritto e investirà un pedone? Naturalmente, questa è una situazione ipotetica in cui vengono offerte solo queste due scelte. O l'intelligenza artificiale sarà così avanzata da trovare una terza scelta?
L'etica e l'intelligenza artificiale sono già state ampiamente discusse, ma è difficile trovare soluzioni adeguate a questo problema. I regolatori sperano di renderla responsabile, cioé sperano di stimolare l'innovazione, tenendo sotto controllo i potenziali rischi della tecnologia. L'EU ha fatto giá una mossa per determinare le "Linee guida etiche per un'IA affidabile" che definiscono sette requisiti chiave che i sistemi di IA dovrebbero soddisfare, tra cui trasparenza, controllo umano, protezione della privacy e della governance dei dati e disposizioni per la sicurezza, la trasparenza e l'eliminazione dei pregiudizi. Le linee guida non sono vincolanti, tuttavia, e si fermano a regolamenti come il GDPR dell'UE.
Alla fine, ci sono ancora troppe domande e troppo poche risposte. Il che non vuol dire che il progresso stia rallentando. Coloro che stanno dietro allo sviluppo dell'intelligenza artificiale stanno rapidamente raggiungendo il successo, ma l'umanità continua a non seguirla. Il che non sorprende, ancora oggi ci sono in tanti che non sanno come posizionarci in un certo senso legale nei confronti delle piattaforme digitali, dei contenuti, delle tasse ecc, e ciò che viene fornito con l'IA è molto più serio.