IA, TUTTO QUELLO CHE DEVI SAPERE

EnglishFrenchGermanItalianRussianSpanish
Select Language
Vai ai contenuti

IA, TUTTO QUELLO CHE DEVI SAPERE

TEMPLATEWEBDESIGN
Pubblicato da TEMPLATEWEBDESIGN in INCHIESTE · 21 Aprile 2023
L'intelligenza artificiale (in sigla IA) è una disciplina che studia se e in che modo si possano realizzare sistemi informatici intelligenti in grado di simulare la capacità e il comportamento del pensiero umano.

Tradizione di ricerca
Molteplici  furono i passi che portarono alla nascita di questa disciplina. Il  primo, sia a livello di importanza sia di ordine cronologico, è  l'avvento dei calcolatori e il continuo interesse rivolto a essi. Già  nel 1623, grazie a Wilhelm Schickard,  si arrivò a creare macchine in grado di effettuare calcoli matematici  con numeri fino a sei cifre, anche se non in maniera autonoma. Nel 1642 Blaise Pascal costruì una macchina in grado di fare operazioni utilizzando il riporto automatico, mentre nel 1674 Gottfried Wilhelm von Leibniz  creò una macchina in grado di effettuare la somma, la differenza e la  moltiplicazione in maniera ricorsiva.

Tra il 1834 e il 1837 Charles Babbage lavorò al modello di una macchina chiamata macchina analitica,  le cui caratteristiche anticiparono in parte quelle dei moderni  calcolatori. Nel ventesimo secolo l'attenzione sui computer ritornò ad  accendersi: nel 1937, ad esempio, Claude Shannon,  all'università di Yale, mostrò come l'algebra booleana e le operazioni  binarie potessero rappresentare il cambiamento circuitale all'interno  dei telefoni.

Un ulteriore passo importante fu l'articolo di Alan Turing redatto nel 1936, On Computable Numbers, With An Application To The Entscheidungsproblem , che pone le basi per concetti quali calcolabilità, computabilità, macchina di Turing,  definizioni cardine per i calcolatori sino ai giorni nostri. In  seguito, nel 1943 McCulloch e Pitts crearono ciò che viene ritenuto il  primo lavoro inerente all'intelligenza artificiale .  Tale sistema impiega un modello di neuroni artificiali nel quale lo  stato di tali neuroni può essere “acceso” o “spento,” con un passaggio  ad “acceso” in presenza di stimoli causati da un numero sufficiente di  neuroni circostanti.

McCulloch e Pitts arrivarono quindi a mostrare, ad esempio, che  qualsiasi funzione computabile può essere rappresentata da qualche rete  di neuroni, e che tutti i connettivi logici (“e”, “o”, ...) possono  essere implementati da una semplice struttura neurale. Sette anni più tardi, nel 1950, due studenti dell'università di Harvard,  Marvin Minsky e Dean Edmonds, crearono quella che viene riconosciuta come la prima rete neurale artificiale, conosciuta con il nome di SNARC.

La nascita effettiva della disciplina (1956)
Nel 1956, nel New Hampshire, al Dartmouth College,  si tenne un convegno al quale presero parte alcune delle figure di  spicco del nascente campo della computazione dedicata allo sviluppo di  sistemi intelligenti: John McCarthy, Marvin Minsky, Claude Shannon e Nathaniel Rochester.  Su iniziativa di McCarthy, un team di dieci persone avrebbe dovuto  creare in due mesi una macchina in grado di simulare ogni aspetto  dell'apprendimento e dell'intelligenza umana. Ad aderire a tale  iniziativa furono alcuni ricercatori, tra cui anche Trenchard More di Princeton, Arthur Samuel di IBM, e Ray Solomonoff e Oliver Selfridge del MIT. Nello stesso convegno, un'altra iniziativa catalizzò l'attenzione oltre al progetto di McCarthy: il programma di Allen Newell e Herbert Simon.  Questi due ricercatori, a differenza di McCarthy, avevano già un  programma capace di qualche forma di ragionamento, conosciuto con il  nome di Logic Theorist, o LP, in grado di dimostrare teoremi  partendo dai principi della matematica. Sempre nello stesso convegno,  McCarthy introdusse l'espressione intelligenza artificiale, che segnò, in maniera indelebile, la nascita effettiva di tale disciplina, conferendole una natura propria.

Prime grandi aspettative (1950-1965)
Il programma creato da Newell e Simon permise loro di progredire e creare un programma chiamato General Problem Solver,  o GPS. A differenza del LP, il GPS fu ideato con lo scopo di imitare i  processi di risoluzione dei problemi utilizzati dagli esseri umani  (nello specifico la cosiddetta "euristica mezzi-fini" ).  Nei ristretti casi nel quale il programma poteva operare, si notò che  l'approccio con il quale il programma considerava gli obiettivi e le  azioni era assimilabile a un umano. Negli stessi anni, presso l'IBM,  Rochester con dei suoi colleghi cominciò a sviluppare altri programmi  capaci di ragionamento.

Nel 1959, Herbert Gelemter creò il Geometry Theorem Prover,  un programma in grado di dimostrare teoremi di geometria complessi. L'anno precedente, presso il MIT, McCarthy diede un altro contributo al  campo dell'intelligenza artificiale definendo quello che per trent'anni  fu riconosciuto come il linguaggio di programmazione dominante per la  realizzazione dei sistemi di intelligenza artificiale: il Lisp. Oltre a ciò, McCarthy scrisse un documento intitolato Programs with Common Sense , nel quale descrive un programma ideale, chiamato Advice Taker, che può essere visto come il primo sistema intelligente completo. A differenza del LP e del GPS, l'Advice Taker era progettato per trovare soluzioni a problemi di tipo diverso, ovvero non strettamente matematici.

Minsky, durante il suo periodo al MIT, coordinò la creazione di programmi per affrontare quelli che vengono chiamati micro mondi,  ovvero problemi limitati e descritti da asserzioni che richiedevano  l'utilizzo di ragionamento per essere risolti. Tra questi, il programma  di James Slagle del 1963, SAINT, era in grado di risolvere problemi riguardo al calcolo integrale in forma chiusa, tipici del primo anno del college.

Prime difficoltà (1966-1969)
Tra  le varie aspirazioni da parte dei ricercatori vi era principalmente  quella di creare macchine in grado di esibire capacità di ragionamento  simili a quelle umane. Ad esempio, Herbert Simon,  nel 1957, stimò che nel giro di dieci anni ci sarebbero state macchine  in grado di competere con i campioni di scacchi (previsione che si  avvererà, ma dopo quarant'anni). Queste aspirazioni, però, dovettero  scontrarsi con alcune difficoltà: prime fra tutte, l’assoluta mancanza  di conoscenza semantica relativa ai domini trattati dalle macchine, in  quanto la loro capacità di ragionamento si limitava a una mera  manipolazione sintattica. A causa di questa difficoltà, nel 1966 il  governo degli Stati Uniti d'America interruppe i fondi per lo sviluppo  delle macchine traduttrici. Un ulteriore problema fu l'impossibilità del  trattare molti problemi che l'intelligenza artificiale si era proposta.  Questo perché si riteneva che “scalare” le dimensioni di un problema  fosse solo una questione di hardware e memoria.

Questo tipo di ottimismo fu presto spento quando i ricercatori  fallirono nel dimostrare teoremi a partire da più di una dozzina di  assiomi. Si capì quindi che il fatto di disporre di un algoritmo che, a  livello teorico, fosse in grado di trovare una soluzione a un problema  non significava che un corrispondente programma fosse in grado di  calcolarla effettivamente a livello pratico. Un terzo tipo di difficoltà  furono le limitazioni alla base della logica, nel senso di  ragionamento, dei calcolatori. Nel documento di Minsky e Papert,  intitolato Perceptrons (1969), si mostrò che, nonostante un percettrone (una semplice forma di rete neurale) fosse in grado di apprendere qualsiasi funzione potesse rappresentare, un percettrone con due input non era in grado di rappresentare una funzione che riconoscesse quando i due input sono diversi.

Sistemi basati sulla conoscenza (1969-1979)
Le precedenti difficoltà portarono a definire gli approcci adottati dalle macchine come approcci deboli, necessitando quindi di una conoscenza maggiore inerente al campo di applicazione. Nel 1969, grazie a Ed Feigenbaum (studente di Herbert Simon), Bruce Buchanam e Joshua Lederberg, venne creato il programma DENDRAL.  Tale programma era in grado, a partire dalle informazioni sulla massa  molecolare ricavate da uno spettrometro, di ricostruire la struttura di  una molecola.  Questo programma fu quindi il primo dei sistemi basati su un uso  intensivo della conoscenza, che arrivarono più tardi a inglobare tutti i  concetti teorizzati da McCarthy per l'Advice Taker. Successivamente, Feigenbaum cominciò insieme con altri ricercatori di Stanford l'Heuristic Program Project (HPP), al fine di estendere gli scenari applicativi di questi sistemi, cominciando con il sistema MYCIN nell'ambito delle diagnosi delle infezioni sanguigne. Si cominciò quindi a teorizzare dei sistemi conosciuti come sistemi esperti, ovvero in grado di possedere una conoscenza esperta in un determinato scenario di applicazione.
Dall'ambiente accademico all'industria (1980-1985)

Il primo sistema di intelligenza artificiale utilizzato in ambito commerciale fu R1, utilizzato dalla Digital Equipment  nel 1982. Lo scopo del programma era quello di aiutare a configurare  gli ordini per nuovi computer. Nel 1986, fu in grado di far risparmiare  alla compagnia 40 milioni di dollari all'anno. Anche la DuPont  utilizzò sistemi simili, risparmiando circa dieci milioni di dollari  all'anno. Negli anni '80 dello scorso secolo, quasi ogni grande azienda  americana aveva un proprio sistema esperto in operazione e stava  studiando sistemi più avanzati. Nel 1981 in Giappone venne annunciato il progetto Fifth Generation, un piano di dieci anni con l'intento di costruire sistemi intelligenti basati su Prolog. In risposta, gli Stati Uniti d'America crearono la Microelectronics and Computer Technology Corporation (MCC), come consorzio di ricerca al fine di garantire la competitività a livello nazionale. In Inghilterra, il rapporto Alvey recuperò i fondi tagliati dal rapporto Lighthill,  che nel 1973 portò il governo britannico alla decisione di interrompere  il supporto verso la ricerca nell'ambito dell'intelligenza artificiale.  Questi progetti però non raggiunsero gli scopi previsti. L'industria dell'intelligenza artificiale raggiunse nel 1988 una cifra  dell'ordine di miliardi di dollari, includendo centinaia di aziende che  stavano creando sistemi esperti, robot e software e hardware  specializzati in questi settori.

Il ritorno delle reti neurali (1986-)
A metà degli anni ottanta dello scorso secolo fu reinventato l'algoritmo di apprendimento per reti neurali chiamato back-propagation,  inizialmente ideato nel 1969 da Bryson e Ho. L'algoritmo fu applicato a  molti problemi relativi all'apprendimento, inerenti sia al lato  dell'informatica sia a quello della psicologia.  I cosiddetti modelli "connessionisti" per la realizzazione di sistemi  intelligenti furono visti come alternative ai modelli simbolici ideati  da Newell e Simon, da McCarthy e dai loro collaboratori. Tali modelli cercarono di dare risposta a quelle domande alle quali i  precedenti modelli non erano riusciti, ma in parte fallirono anch'essi.  Di conseguenza, i modelli basati sull'approccio simbolico e quelli con  un approccio connessionista furono visti come complementari.

Principi di Asilomar
Nel 2017 a seguito del convegno di esperti mondiali di intelligenza artificiale promosso dal Future of Life Institute  è stato redatto con amplissimo consenso un vademecum con 23 principi  per affrontare le problematiche etiche, sociali, culturali e militari  dell'IA. Il documento è stato sottoscritto subito da oltre 800 esperti e  in seguito da altre migliaia

Il mercato dell'intelligenza artificiale in Italia
Il  mercato italiano dell'intelligenza artificiale si presenta ancora agli  albori, ma le prospettive per il futuro sono positive: nel 2018 ha  raggiunto un valore di 85 milioni di euro, una cifra che fa riferimento  agli investimenti nello sviluppo e nell'implementazione di progetti  come:

  • sviluppo di algoritmi di IA;
  • hardware per l'immagazzinamento e l'elaborazione di dati;
  • software per la gestione dei dati;
  • servizi di integrazione e personalizzazione.

Per capire il valore dell'intelligenza artificiale nel contesto  tecnologico italiano, è sufficiente notare come si intreccia con altre  tendenze digitali come la Cloud Transformation e l'Internet of Things .  Il primo rende scalabile l'infrastruttura necessaria alla raccolta ed  elaborazione dei dati, mentre il secondo crea dispositivi e sensori  utili non solo per la raccolta dati ma anche per veicolare servizi  basati sull'IA

Il futuro dell'intelligenza artificiale in Italia
Benché  le aziende italiane nel complesso non abbiano ancora una visione  omogenea sul tema, si individuano già aree di sviluppo particolarmente  interessanti:
  • Smart home speaker
Si tratta di assistenti vocali intelligenti in grado di gestire  oggetti intelligenti presenti in casa. Sono stati introdotti di recente,  ma il loro mercato in Italia vale già 60 milioni di euro e il valore  sembra destinato a crescere: in un futuro non troppo lontano, questi  assistenti potrebbero fungere da canale con cui veicolare servizi e  applicazioni legate al mondo dell'AI, creando nuove opportunità di  sviluppo per le aziende del settore.
  • Robot intelligenti
A questa categoria appartengono i collaborative robot e gli AGV (Automated Guided Vehicle).  I primi collaborano con un operatore umano e sono in grado di adattare  il proprio comportamento agli stimoli esterni, mentre i secondi si  adattano all'ambiente esterno muovendosi in autonomia, senza il supporto  di guide fisiche o percorsi predeterminati.[45]
  • Tutor Intelligenti
A questa categoria appartengono gli avatar degli Edugames oppure dei  robot che all'interno dei musei, e altri luoghi dell'apprendimento,  guidano i discenti-visitatori e fungere dai docenti-educatori  artificiali
(wikipedia)






Non sono presenti ancora recensioni.
0
0
0
0
0
Torna ai contenuti