L'imprevedibilità dell'Intelligenza Artificiale

Cosa dobbiamo aspettarci dall'AI?

Come impara l'AI?

L'intelligenza artificiale è ormai parte della nostra vita quotidiana, ma pochi approfondiscono come funziona e i problemi legati al suo uso. Negli anni, il progresso ha portato allo sviluppo di tecniche di "machine learning".

Ad Oggi

Le tecnologie disponibili al giorno d'oggi sono innumerevoli reti neurali, deep learning, regressioni, ... ma il risultato che si ottiene è sempre pressochè simile: le macchine acquisiscono la capacità di apprendere dall'esperienza e dai dati.

  • 1 Regressione logistica
  • Questa tecnica di apprendimento, sebbene non sia molto nota, è utile nello scovare, partendo da due o più fattori di dati, relazioni matematiche, che diventano mezzi per prevedere il valore di un dato basandosi su quello dell'altro. A differenza della successiva, questa non ha come scopo vero e proprio quello di elaborare calcoli e determinare numeri, ma piuttosto di determinare la classe di un dato input: il risultato di questo genere di operazione fornisce sempre un numero da 0 a 1. (es. email spam/ordinaria)

  • 2 Regressione lineare
  • La regressione lineare permette di modellare una relazione matematica basandosi sugli input. Una volta che questa diventa sufficientemente affidabile, diventa modello di previsione di valori numerici continui.

  • 3 Deep Learning
  • Non è propriamente una tecnica a se: si basa sul concetto di rete neurale. In sintesi, sfruttando neuroni artificiali e pesi, questa modalità di apprendimento mira a riprodurre matematicamente il funzionamento di un cervello umano: scovare relazioni nascoste negli insiemi di dati. Ovviamente al giorno d'oggi, i risultati di queste reti non è equiparabile a quelli di una persona reale.

    Detto tutto ciò, potrebbero sorgere alcuni dubbi: "Da dove vengono reperiti i dati?","Di che tipologia di dati si parla?", ecc, ma quella più importante forse è "Cosa comporta un apprendimento totalmente autonomo?". Dunque, lo scopo di questa ricerca è fare chiarezza sui possibili rischi e di dare consigli sul modo in cui sfruttare consapevolmente questi strumenti.

    Quattro aspetti critici dell'imprevedibilità dell'AI

    Dietro ogni algoritmo si nascondono scelte, dati e conseguenze. Ecco quattro punti chiave per capire davvero cosa significa convivere con un'intelligenza artificiale autonoma.

  • 1 ILLUSIONE DI CONTROLLO
  • Molti credono che l'intelligenza artificiale sia uno strumento pienamente governabile. Tuttavia, quando i sistemi iniziano ad auto-apprendere da enormi moli di dati, il comportamento finale diventa spesso imprevedibile, e persino i creatori faticano a comprendere tutte le decisioni prese. In tal caso la trasparenza diventa fondamentale.

  • 2 DATI: IL NUOVO PETROLIO
  • Come già accennato l'apprendimento delle AI si basa su dati: milioni di immagini, testi, numeri, comportamenti. Ma chi fornisce questi dati? Quanto sono etici i metodi di raccolta? E soprattutto: siamo consapevoli del fatto che i nostri dati personali alimentano questo processo?

  • 3 L'AUTONOMIA CHE SPAVENTA
  • Una delle domande più inquietanti riguarda l'autonomia delle AI. Quando un algoritmo sviluppa una strategia da solo, senza che l'essere umano ne abbia indicato il percorso, siamo sicuri che i suoi obiettivi coincidano con i nostri?

  • 4 VERSO UNA COESISTENZA CONSAPEVOLE
  • Il futuro non va fermato, ma compreso. È necessario educare le persone all'uso consapevole dell'intelligenza artificiale, fornendo strumenti per distinguere tra uso etico e sfruttamento. Solo così si potrà convivere con queste tecnologie senza diventarne vittime.

    Riflessioni d'oggi.

    L'intelligenza artificiale è ormai integrata in moltissimi aspetti della nostra quotidianità: la troviamo nei motori di ricerca, nei social, nei servizi sanitari, nei sistemi di trasporto e perfino nelle scelte di intrattenimento. Tuttavia, spesso interagiamo con queste tecnologie senza conoscerle davvero. Dietro strumenti che sembrano semplici e innocui si nascondono meccanismi sofisticati in grado di apprendere, adattarsi e influenzare le nostre decisioni.

    Riflessione

    La questione non è solo cosa possa fare l'AI, ma come lo fa e con quali dati. Se le macchine apprendono in autonomia, chi ne controlla davvero le scelte? Questo solleva interrogativi urgenti su responsabilità, trasparenza ed etica.

    Porsi le domande giuste è essenziale. Capire i rischi e promuovere un uso consapevole dell'AI ci permette di non subirne passivamente l'evoluzione. I quattro punti che seguono offrono uno sguardo critico su questo scenario in rapido cambiamento.

    "L'intelligenza artificiale è come l'energia nucleare: ha incredibili potenzialità, ma grandi responsabilità." --Bill Gates

    Primi allarmi

    Non si tratta più ne di pessimismo ne di complottismo: la stampa ha gia riferito di diversi episodi in cui l'AI si è rivelata indomabile dai programmatori.

    Il potere delle decisioni

    Con la diffusione dell’intelligenza artificiale in ogni ambito della vita, diventa cruciale interrogarsi non solo su cosa può fare, ma anche su cosa dovrebbe fare. Gli algoritmi stanno già prendendo decisioni che influenzano carriere, diagnosi mediche e giustizia. Questo spinge a definire regole, confini e soprattutto una visione etica condivisa.

    Fa riflettere un caso del 2013: dei ricercatori dell'IBM per testare le capacità del proprio sistema AI "Watson" e ampliarne i servizi decisero di registrare nel dizionario parole prese dal sito web "Urban Dictionary", peculiare per la sua natura che permette ai semplici utenti di espanderne il vocabolario. Lo scopo principale era dunque di rendere maggiormente "umano" questo modello. Il risultato può risultare abbastanza ovvio: l'AI cominciò ad adoperare termini "urbani", non perfettamente adatti al contesto in cui operava. Altro caso interessante, nel 2016 la chatbot "Tay", programmata per simulare il linguaggio di una ragazza statunitense diciannovenne apprese dai tanti utenti con cui messaggiava termini scurrili e razzisti che poi utilizzava con altri usufruenti. Tra questi casi uno spicca perchè riguarda tutti, anche chi è ancora convinto che l'AI non possa interferire con la propria vita, sembra che il crollo del 6 maggio 2010 dell'indice Dow Jones sia proprio merito dell'AI: si suppone che i broker a quei tempi sfruttassero degli algoritmi nella compravendita di prodotti finanziari e derivati, la pecca di questi era che adottavano tutti pressochè la stessa strategia, e dunque amplificavano le tendenze con risultati disastrosi.

    Una notizia rassicurante è che, nonostante gli incidenti, i developer abbiano saputo implementare filtri capaci di limitare l'apprendimento autonomo. Ciò non significa che il pericolo è scampato, ma maggiori specifiche nell'addestramento possono rappresentare una speranza di maggior sicurezza nel futuro, dove si spera che le controversie legate a questo mondo possano mitigarsi.

    Se non affrontiamo questi temi oggi, rischiamo di trovarci domani in un mondo che non abbiamo scelto — ma che ci impone le sue logiche.