Intelligenza artificiale, perché fa così paura? Tutto quello che c’è da sapere

Cosa è l'intelligenza artificiale, a cosa serve e come funziona. Qualcuno dice che è più pericolosa della bomba atomica ma è proprio così?

Un pericolo più rischioso della bomba atomica. Una macchina in grado di svolgere la maggior parte dei lavori umani. Un algoritmo in grado di decidere per noi. Sono tante le definizioni apocalittiche accostate all’Intelligenza artificiale, la tecnologia già diffusa in molti ambiti delle nostre vite con un misto di fascinazione e scetticismo. Ma cos’è l’intelligenza artificiale? E perché la temiamo? Abbiamo provato a rispondere con l’aiuto di Giovanni Comandè, docente ordinario di Diritto privato comparato ed esperto di Intelligenza artificiale.

Che cos’è l’intelligenza artificiale?

“L’intelligenza artificiale è un’intelligenza collettiva. È come se avessimo la possibilità di unire insieme più cervelli: l’intelligenza artificiale è un super-cervello che normalmente sa fare molto bene una cosa sola. Ma per nascere e funzionare ha bisogno di alcuni ingredienti: i dati, la capacità computazionale (la capacità di leggere e analizzare i dati) e infine la capacità di archiviazione (conservare i dati elaborati). Si tratta di un processo già ideato nei primi anni del Novecento”.

Qual è la grande novità dell’intelligenza artificiale?

“Rispetto alle macchine elaborate in precedenza, programmate per eseguire un compito, l’Ai è in grado di trovare da sola la soluzione per svolgere quel compito, trovando informazioni nascoste nei dati. Grazie al machine learning, i software imparano da soli a fare alcune cose: l’intelligenza artificiale trova le informazioni che le servono per uno specifico scopo. Si tratta dell’apprendimento automatico che è alla base dell’intelligenza artificiale. Con l’automazione del secolo scorso il traguardo era stato programmare una macchina perché, dato un comando, fosse in grado di eseguire un compito come avvitare un bullone. Oggi, con l’Ai, è la stessa macchina a capire come deve svolgere il compito che le è stato assegnato”.

Un esempio: l’applicazione dell’AI in ambito medico

“Per capire come funziona l’Intelligenza artificiale, possiamo ipotizzare di applicarla in ambito medico. Per capire se una macchia della pelle è un tumore benigno o maligno, abbiamo la possibilità, attraverso l’intelligenza artificiale, di mettere insieme la conoscenza dei medici che studiano i tumori della pelle. Attingendo ai loro studi e alla catalogazione dei referti, l’Ai, come se fosse un super-medico, potrebbe presentarci poi il suo parere sull’immagine mostrata. Per questo parliamo di intelligenza collettiva: perché è attraverso la condivisione delle esperienze collettive che l’Ai impara a distinguere, catalogare e valutare, per esempio, le varie immagini di tumori della pelle. Noi forniamo le indicazioni, e l’Ai trova come collegarle. L’intelligenza artificiale esteriorizza le competenze per raggrupparle in un luogo virtuale fruibile. Le scelte sono prese su base statistica, ma chiediamo all’Ai di spiegare anche i fattori e le variabili che le hanno fatto dare quella risposta”.

L’intelligenza artificiale è da condannare?

“Visto che l’Ai impara dai dati che le diamo per apprendere, se le diamo in pasto dei dati carichi di pregiudizi ecco che imparerà ad avere pregiudizi. Quindi se chiedessimo ad un motore di ricerca di mostrarci foto di un amministratore delegato, quasi sicuramente ci mostrerà un uomo e per di più bianco (la ricerca va fatta in inglese per usare una lingua gender neutral). Questo vuol dire che l’Ai discrimina? Non esattamente, perché l’Ai non dà giudizi, ma sono i nostri comportamenti ad essere spesso discriminatori. L’Ai basa le sue risposte sui dati. Potremmo sintetizzare dicendo: dimmi i tuoi dati e ti dirò chi sei”.

Allora perché si dice che l’AI potrebbe essere rischiosa?

“La paura esiste ed è legittima. Il problema non sono le macchine, ma il fatto che deleghiamo alle macchine le nostre scelte. Negli anni Ottanta i sistemi di controllo automatico dell’Unione Sovietica erano programmati per rispondere immediatamente a un attacco nucleare. In caso di attacco nucleare sul territorio russo, il sistema avrebbe reagito preventivamente. Nel settembre del 1983 il sistema radar dell’Urss rilevò un lancio di missili balistici dalle basi Usa. Ma l’ufficiale della difesa aerea Petrov fermò la risposta, ritenendo che si trattasse di un errore. Ed effettivamente si trattava di un falso allarme dovuto all’equinozio di autunno: i riflessi solari sulle nubi erano stati confusi con dei lanci di missili. Grazie a Petrov, che capì l’inganno della macchina, non abbiamo avuto una guerra nucleare. Oggi corriamo il rischio di riporre eccessiva fiducia nell’intelligenza artificiale. Dobbiamo sì fidarci, ma anche governare l’intelligenza artificiale come ogni altra tecnologia”.

Cos’è l’automation bias?

“L’atteggiamento dell’essere umano nei confronti dell’Ai è quello di chi è consapevole che non potrà mai avere la stessa capacità di calcolo, e quindi si chiede: chi sono io per dire che l’Intelligenza artificiale sbaglia? Ma in realtà l’Ai è programmata per fare una sola cosa, e farla molto bene. Nel caso dell’analisi dei tumori, è vero che l’Ai può essere un prezioso strumento per l’analisi delle immagini, ma poi è necessario un controllo approfondito di un medico, una supervisione umana. Sono strumenti già utilizzati negli ospedali, nelle strutture, nelle amministrazioni”.

Dominare e non essere dominati, dunque?

“Come per tutte le tecnologie, la scelta è se governarle o esserne governati. Ma le tecnologie di per sé sono neutre. Un fucile può essere usato come strumento di caccia per sfamare il villaggio o strumento per uccidere qualcuno. Sono solo strumenti, a cui però non dobbiamo affidare tutte le nostre scelte. E che dobbiamo utilizzare con molta attenzione”. – Fonte www.dire.it –

- Pubblicità -
Redazione
Redazione
Giornale digitale fondato nel 2022 con l’intento di offrire al territorio “Una voce oltre la notizia”. Nasce dall’esigenza di un gruppo di giornalisti ed esperti di comunicazione di creare un canale di informazione attendibile, laico e indipendente che dia voce ai cittadini, alle imprese, ai lavoratori, agli studenti…

CORRELATI
ALTRI ARTICOLI

Premio Impresa 2025, dalla Camera di Commercio i riconoscimenti alle eccellenze di Frosinone e Latina

A Fossanova la seconda edizione dell’iniziativa: 56 premi a startup, imprese innovative, internazionali e longeve

Tassa sui pacchi, ecco quando si paga e chi lo fa: tutte le novità

Chi paga davvero, quali spedizioni sono coinvolte e perché la misura colpisce soprattutto i colossi low cost come Temu e Shein

Frosinone – Carta d’identità elettronica, il 31 l’open day: prenotazioni al via da oggi

La partecipazione è possibile solo tramite prenotazione online sul sito istituzionale dell’Ente: le informazioni utili

Zona Franca Doganale Latina–Frosinone, verso la svolta: il 2 febbraio la conferenza stampa di presentazione

Appuntamento alle ore 10.30, presso la sede della Camera di Commercio di Frosinone-Latina. Presenti tra gli altri, Rocca, Calandrini e Leo

Alatri, riconoscimento al Liceo Pietrobono e all’IIS Pertini: premiate due eccellenze della città

Cerimonia in sala consiliare con il sindaco Cianfrocca e l’assessore Pelorossi dopo i risultati del report Eduscopio della Fondazione Agnelli

Paliano – Ritrovamenti archeologici e tutela del territorio: il 31 gennaio incontro pubblico al teatro Esperia

L’iniziativa nasce con l’obiettivo di informare in modo chiaro e trasparente la cittadinanza, favorendo un confronto pubblico
- Pubblicità -

Condividi sui social

- Pubblicità -

Più letti

- Pubblicità -