Cos'è e cosa non è l'intelligenza artificiale?Cos'è e cosa non è l'intelligenza artificiale?

In generale, l’intelligenza artificiale (AI) è un campo di studio e un tipo di tecnologia caratterizzata dallo sviluppo e dall’uso di macchine in grado di svolgere compiti che di solito avrebbero richiesto l’intelligenza umana.

L’intelligenza artificiale ha già trasformato molti settori e aspetti della società, che vanno dall’introduzione di chatbot per il servizio clienti a GPS avanzati e applicazioni di mappatura. Tuttavia, ci sono diverse idee sbagliate sull’IA e sui suoi potenziali usi.

Nelle seguenti domande e risposte, Kay Firth-Butterfield, responsabile dell’intelligenza artificiale e dell’apprendimento automatico presso il World Economic Forum, descrive in dettaglio i diversi tipi di IA, importanti sviluppi e applicazioni nel campo dell’apprendimento automatico e, forse più importante, discute i malintesi comuni sull’IA.

Quali sono i diversi tipi di AI?

“L’intelligenza artificiale è costituita da diversi modelli di apprendimento automatico. Questi includono, ma non sono limitati a, apprendimento per rinforzo, apprendimento supervisionato e non supervisionato, visione artificiale, elaborazione del linguaggio naturale e apprendimento profondo.

“Tutti i modelli di apprendimento automatico sviluppano e avanzano previsioni statistiche, ma differiscono nel loro uso e comprensione dei dati. ChatGPT, ad esempio, è un chatbot basato sull’intelligenza artificiale che è in grado di prevedere la parola successiva più probabile in una frase. Con numerose e relativamente accurate previsioni, ChatGPT è in grado di creare paragrafi coerenti.

Cosa fraintende la maggior parte delle persone sull’IA?

“L’intelligenza artificiale non è intelligenza, è previsione. Con i modelli linguistici di grandi dimensioni, abbiamo visto un aumento della capacità della macchina di prevedere ed eseguire con precisione un risultato desiderato. Ma sarebbe un errore equiparare questo all’intelligenza umana.

“Questo è chiaro quando si esaminano i sistemi di apprendimento automatico che, per la maggior parte, possono ancora svolgere solo un compito molto bene alla volta. Questo non è buon senso e non è equivalente ai livelli umani di pensiero che possono facilitare il multi-tasking con facilità. Gli esseri umani possono prendere informazioni da una fonte e usarle in molti modi diversi. In altre parole, la nostra intelligenza è trasferibile, l'”intelligenza” delle macchine non lo è.

Dove vedi il più grande potenziale dell’IA?

“L’intelligenza artificiale ha un enorme potenziale per fare del bene in vari settori, tra cui l’istruzione, la sanità e la lotta ai cambiamenti climatici. FireAId, ad esempio, è un sistema informatico basato sull’intelligenza artificiale che utilizza mappe del rischio di incendi boschivi per prevedere la probabilità di incendi boschivi in base a variabili stagionali. Analizza inoltre il rischio e la gravità degli incendi boschivi per aiutare a determinare l’allocazione delle risorse.

“Nel frattempo, nel settore sanitario, l’IA viene utilizzata per migliorare l’assistenza ai pazienti attraverso una prevenzione, una diagnosi e un trattamento più personali ed efficaci. Il miglioramento dell’efficienza sta anche riducendo i costi sanitari. Inoltre, l’intelligenza artificiale è destinata a cambiare radicalmente e, idealmente, a migliorare l’assistenza agli anziani”.

Dove pensi che sia stato esagerato il potenziale impatto dell’IA?

“Le esagerazioni sul potenziale dell’IA derivano in gran parte da incomprensioni su ciò che l’IA può effettivamente fare. Vediamo ancora molte macchine basate sull’intelligenza artificiale che hanno costantemente allucinazioni, il che significa che commettono molti errori. Quindi l’idea che questo tipo di IA sostituirà l’intelligenza umana è improbabile.

“Un altro ostacolo all’adozione dell’IA è il fatto che i sistemi di IA traggono i loro dati da fonti non rappresentative. La stragrande maggioranza dei dati è prodotta da una parte della popolazione in Nord America e in Europa, portando i sistemi di intelligenza artificiale a riflettere quella visione del mondo. ChatGPT, ad esempio, attira in gran parte la parola scritta da quelle regioni. Nel frattempo, quasi 3 miliardi di persone non hanno ancora accesso regolare a Internet e non hanno creato alcun dato da soli.

Quali sono i maggiori rischi associati all’IA?

“I sistemi di intelligenza artificiale sono incredibilmente nuovi. Pertanto, le aziende e il pubblico in generale devono fare attenzione prima di utilizzarli. Gli utenti dovrebbero sempre verificare che un sistema di intelligenza artificiale sia stato progettato e sviluppato in modo responsabile e sia stato ben testato. Pensa ad altri prodotti; Una casa automobilistica non rilascerebbe mai un nuovo veicolo senza test rigorosi in anticipo.

“Il rischio di utilizzare sistemi di intelligenza artificiale non testati e mal sviluppati non solo minaccia il valore e la reputazione del marchio, ma espone anche gli utenti a contenziosi. Negli Stati Uniti, ad esempio, le normative governative hanno chiarito che le aziende saranno ritenute responsabili per l’uso di strumenti di assunzione basati sull’intelligenza artificiale che discriminano.

“Ci sono anche le principali preoccupazioni sulla sostenibilità che circondano l’intelligenza artificiale e i sistemi informatici avanzati, che utilizzano un’enorme quantità di energia per svilupparsi e operare. Già, l’impronta di carbonio dell’intero ecosistema della tecnologia dell’informazione e della comunicazione eguaglia le emissioni di carburante dell’industria aeronautica”.

Quali misure possono essere adottate per garantire che l’IA sia sviluppata in modo responsabile?

“Prima di tutto, le persone dovrebbero pensare se l’intelligenza artificiale sia o meno lo strumento migliore per risolvere un problema o migliorare un sistema. Se l’IA è appropriata, il sistema dovrebbe essere sviluppato con cura e ben testato prima di essere rilasciato al pubblico.

“Gli utenti dovrebbero anche essere consapevoli delle normative legali e il settore pubblico e privato dovrebbero lavorare insieme per sviluppare barriere adeguate per le applicazioni dell’IA.

“Infine, gli utenti dovrebbero utilizzare i vari strumenti e risorse che sono stati sviluppati per aiutare a inaugurare un’IA responsabile”.

Di Remo12

Lascia un commento

Follow by Email
LinkedIn
LinkedIn
Share