AI & TecnologiaIntelligenza ArtificialeNew Technology

Dall’algoritmo alla mente artificiale

Come siamo arrivati dai modelli predittivi agli assistenti intelligenti che conversano con noi 

 

Tutto è cominciato con una mail

Hai mai ricevuto un suggerimento di completamento automatico che sembrava leggerti nella mente? Oppure ti sei stupito per come un assistente virtuale ha capito (quasi) perfettamente una tua richiesta scritta in modo ambiguo?

La realtà è che oggi interagiamo quotidianamente con sistemi intelligenti, anche senza accorgercene. E dietro a queste interazioni si nasconde un’evoluzione tecnologica che parte da lontano, fatta di algoritmi, dati e modelli sempre più sofisticati.

Questo articolo è una breve mappa per orientarsi tra i termini che spesso vengono confusi – Machine Learning, Deep Learning, LLM – e per comprendere come siamo arrivati all’era dei modelli linguistici generativi.

Una timeline semplificata dell’AI moderna

  • 1956 – Nasce l’Intelligenza Artificiale
    Durante il Dartmouth Summer Research Project, McCarthy, Minsky e altri pionieri propongono l’idea di “macchine intelligenti”.
  • Anni ‘80-’90 – Algoritmi simbolici e regressione
    L’AI si basa su regole esplicite e modelli statistici semplici.
  • Anni 2000 – Machine Learning (ML)
    Si afferma l’idea che i sistemi possano imparare dai dati invece che seguire regole scritte a mano.
  • 2012 – La svolta del Deep Learning
    Grazie a GPU e Big Data, le reti neurali profonde vincono ImageNet. Le performance superano di gran lunga i metodi classici.
  • 2020 – Esplosione dei LLM
    OpenAI rilascia GPT-3. Poco dopo, arrivano ChatGPT, Gemini, Claude. L’AI diventa accessibile al grande pubblico.

Machine Learning: apprendere da esempi, non da istruzioni

Il Machine Learning è un insieme di tecniche che consente ai computer di apprendere modelli dai dati. Invece di scrivere codice che risolve direttamente un problema, forniamo dati di input e output, e lasciamo che la macchina scoprada sola la funzione che collega i due.

Le principali categorie di Machine Learning sono:

  1. Supervised Learning
    Il modello impara da un dataset etichettato (cioè con la risposta giusta già presente).
    Esempi: classificazione email (spam / non spam), previsione del valore di un immobile.
  2. Unsupervised Learning
    Il modello cerca da solo delle strutture o gruppi nei dati, senza etichette.
    Esempi: segmentazione clienti, clustering di notizie simili.
  3. Reinforcement Learning
    L’algoritmo impara attraverso l’interazione con un ambiente e un sistema di ricompense/punizioni.
    Esempi: robotica, videogame, guida autonoma.

“Il Machine Learning è come insegnare a un bambino a riconoscere un cane: non gli dai la definizione, gli mostri decine di foto finché impara a distinguere da solo.”

(parafrasi di Andrew Ng, Stanford)

https://www.wired.com/2015/02/google-brains-co-inventor-tells-why-hes-building-chinese-neural-networks/

Deep Learning: quando l’algoritmo crea le sue regole

Il Deep Learning è un sottoinsieme del ML che utilizza reti neurali artificiali multistrato (deep neural networks) per apprendere rappresentazioni complesse dai dati.

Cosa cambia rispetto al ML classico?

Mascotte THINK StarthinkMagazine

THINK ha già acceso i motori… ora tocca a te

Le idee migliori non si tengono… si condividono.

Aiuta questo contenuto a raggiungere chi vuole restare un passo avanti.

  • Il modello apprende da solo le caratteristiche rilevanti, senza feature engineering manuale
  • Funziona molto meglio con dati non strutturati (immagini, audio, testo)
  • È computazionalmente più pesante, ma estremamente più flessibile

Una rete neurale artificiale è composta da neuroni organizzati in livelli (layer):

  • Input layer: riceve i dati grezzi (es. pixel di un’immagine)
  • Hidden layers: trasformano progressivamente i dati in astrazioni più utili
  • Output layer: produce il risultato (es. la probabilità che sia un cane)

Esempi di successo del deep learning:

  • Google Translate
  • Riconoscimento facciale su smartphone
  • Diagnosi di malattie da immagini radiologiche

Il deep learning ha cambiato il paradigma: dai sistemi che imparano cosa guardare, siamo passati a quelli che imparano come vedere

LLM: la macchina che comprende (e genera) linguaggio

I Large Language Models sono un’applicazione avanzata del deep learning. Sono modelli neurali con miliardi di parametri, addestrati su enormi corpus testuali (libri, siti web, forum, documenti).

Funzionano grazie a:

  • Tokenizzazione: ogni frase viene spezzata in unità minime (parole, sillabe, subword)
  • Trasformers: architettura che ha rivoluzionato il NLP grazie al meccanismo di self-attention (paper “Attention is All You Need”, 2017)
  • Apprendimento autoregressivo o mascherato: predicono il token successivo, o ricostruiscono quelli mancanti

Con i LLM si possono svolgere moltissimi task:

  • Rispondere a domande
  • Riassumere testi
  • Tradurre lingue
  • Scrivere codice
  • Simulare stili di scrittura

GPT-3 ha 175 miliardi di parametri. GPT-4, secondo alcuni, li supera abbondantemente. Per confronto: il cervello umano ha circa 86 miliardi di neuroni.

Il prezzo della complessità: la scatola nera

Con l’aumento della potenza cresce anche la difficoltà nel comprendere cosa avviene “dentro”.

I modelli come quelli neurali, e ancor di più gli LLM, sono difficilmente interpretabili:

  • Non possiamo spiegare facilmente perché una previsione sia stata fatta
  • Possono ereditare bias dai dati di addestramento
  • Non hanno un concetto “cosciente” di verità: generano testo plausibile, non sempre corretto

Questo solleva interrogativi importanti in contesti come:

  • Sanità (diagnosi)
  • Giustizia (valutazione del rischio)
  • Educazione e media (contenuti generati automaticamente)

 

Non è necessario essere data scientist per comprendere l’impatto dell’AI. Ma oggi più che mai serve un nuovo tipo di alfabetizzazione: quella digitale e algoritmica. Perché capire come funziona l’AI non è più solo un’esigenza da specialisti. È una forma di cittadinanza digitale.

Fonti e riferimenti:

 

Continua

Francesco Giuseppe Morabito

Solutions Architect con background in Ingegneria Informatica e un approccio multidisciplinare che integra sviluppo, UX design, analisi dati e visione strategica. Nel mio percorso professionale a Roma e Milano, ho evoluto le mie competenze partendo dallo sviluppo software fino ad abbracciare la progettazione di ecosistemi digitali complessi. Questa crescita mi ha consentito di sviluppare una visione olistica che unisce aspetti tecnici, estetici e strategici. Ho condiviso le mie competenze come relatore e docente in diverse istituzioni pubbliche e private. Attualmente sono docente di Media Design allo IED di Roma e presso Scuole di formazione private.
Pulsante per tornare all'inizio
Non sei ancora iscritto alla newsletter di Starthink Magazine? Arriverà "THINK" per informarti
Iscriviti per ricevere le ultime novità!
Non sei ancora iscritto alla newsletter di Starthink Magazine?
Iscriviti per ricevere le ultime novità!