C’è un video di un robot nel laboratorio di Figure che prepara il caffè. Non quello del tipo “un braccio robotico segue precisamente un percorso pre-programmato per azionare una Keurig”, ma quello in cui dici “ehi, fammi un caffè” e lui si occupa dei passaggi — trova la tazza, identifica la macchina del caffè, preme i pulsanti giusti e te lo porta. Il modo di fare il caffè che richiede di capire cosa sia il caffè.
Abbiamo avuto robot industriali per decenni. Robot di saldatura nelle fabbriche di automobili. Macchine pick-and-place nella produzione di elettronica. Braccia di linea di assemblaggio che ripetono lo stesso movimento 10.000 volte al giorno con una precisione sub-millimetrica. Quei robot sono impressionanti ma stupidi. Fanno esattamente quello per cui sono programmati e nient’altro.
Ciò che cambia ora è la parte relativa all’intelligenza artificiale. I robot stanno imparando a vedere, comprendere e adattarsi. E questo cambia tutto riguardo a ciò che i robot possono fare.
Le Tre Cose Che L’AI Dà Ai Robot
Occhi che comprendono. La visione artificiale combinata con sensori di profondità consente ai robot di costruire un modello 3D del loro ambiente in tempo reale. Non solo “c’è un oggetto alle coordinate (3, 4, 2)”, ma “quella è una tazza da caffè, è in piedi, è sul bordo del tavolo e sembra fragile.” Questa comprensione semantica è ciò che rende un robot utile in un ambiente non strutturato come la tua cucina rispetto a uno strutturato come il pavimento di una fabbrica.
Un cervello che pianifica. Qui entrano in gioco i LLM, e onestamente, mi ha sorpreso quanto funzioni bene. L’RT-2 di Google prende un’istruzione in linguaggio naturale come “prendi la lattina di Coca-Cola e mettila nel riciclaggio” e riesce a capire i comandi motori per farlo accadere — compresi oggetti e situazioni su cui non è stato esplicitamente addestrato. La stessa comprensione del linguaggio che alimenta ChatGPT si rivela davvero utile per dire ai robot cosa fare.
Mani che apprendono. I robot tradizionali hanno bisogno di ogni movimento pre-programmato. I robot alimentati da AI apprendono dalla dimostrazione — tu gli mostri come piegare un asciugamano, e loro capiscono il principio generale di piegatura degli asciugamani, poi lo adattano ad asciugamani di diverse dimensioni e forme. Il sistema Mobile ALOHA di Stanford ha imparato a cucinare, pulire e organizzare guardando gli esseri umani. Non perfettamente, ma abbastanza bene da risultare utile.
Dove I Robot Lavorano Oggi
I magazzini sono la storia di successo. Amazon ha oltre 750.000 robot nei suoi centri di distribuzione. Questi non sono robot umanoidi che girano per la struttura — sono per lo più piattaforme piatte che trasportano scaffali a chi raccoglie, più bracci robotici che ordinano e imballano articoli. L’AI gestisce la navigazione in un ambiente dinamico in cui migliaia di robot e umani condividono lo spazio. È il più grande dispiegamento di robotica AI al mondo, e funziona.
La chirurgia ha fatto passi avanti più di quanto la maggior parte delle persone realizzi. Il sistema chirurgico da Vinci è stato utilizzato in oltre 12 milioni di procedure. L’AI fornisce filtraggio dei tremori (più stabile di qualsiasi mano umana), visualizzazione ingrandita in 3D e assistenza nel posizionamento degli strumenti. I chirurghi sono ancora in controllo — il robot potenzia le loro capacità invece di sostituirle.
L’agricoltura è sorprendentemente avanzata. Ci sono robot che raccolgono fragole in modo selettivo — solo quelle mature, lasciando i frutti non maturi per dopo. Altri robot identificano ed eliminano le erbacce senza erbicidi. La sfida qui è la variabilità — ogni campo è diverso, ogni pianta è leggermente diversa e l’illuminazione cambia durante la giornata. L’AI gestisce questa variabilità in modi che la programmazione tradizionale semplicemente non può.
La Corsa Umanoide
Tutti stanno costruendo robot umanoidi ora, e le opinioni variano ampiamente su se questo sia geniale o presuntuoso.
Figure 01 e 02 sono le dimostrazioni più impressionanti che abbia visto. Interazione in linguaggio naturale, comportamento adattivo e manipolazione che sembra realmente fluida anziché scattosa. La partnership con OpenAI significa che i robot di Figure comprendono contesto e istruzioni in un modo che sembra genuinamente intelligente.
Optimus di Tesla riceve la maggior parte della stampa perché è Tesla. I progressi sono stati più rapidi di quanto i critici si aspettassero — le dimostrazioni recenti mostrano Optimus che cammina, raccoglie oggetti e svolge compiti semplici. Se le promesse temporali di Elon sono realistiche è un’altra questione (spoiler: probabilmente non lo sono).
Atlas di Boston Dynamics è il robot umanoide originale, e la versione elettrica è davvero impressionante dal punto di vista atletico. Capovolte, parkour, navigazione dinamica degli ostacoli. Ma il divario tra “dimostrazione impressionante” e “prodotto utile” rimane ampio.
La mia opinione onesta sui robot umanoidi: la questione non è se alla fine funzioneranno — lo faranno. La domanda è se un fattore di forma umanoide sia l’approccio giusto. Perché costruire un robot a forma umana per azionare una lavastoviglie quando potresti costruire una lavastoviglie migliore? I robot umanoidi hanno senso in ambienti progettati per gli esseri umani (case, uffici, negozi). I robot progettati per uno scopo specifico hanno senso per compiti specifici (magazzini, chirurgia, agricoltura).
I Problemi Insoluti
La generalizzazione rimane la parte difficile. Un robot addestrato a preparare caffè nella Cucina A ha difficoltà nella Cucina B, dove la macchina da caffè è diversa e le tazze sono in un armadietto diverso. Gli esseri umani gestiscono questo senza sforzo. I robot hanno bisogno di un ampio ri-addestramento o di modelli fondamentali che possano generalizzare — e non siamo ancora a quel punto.
La sicurezza intorno agli esseri umani. Un robot da magazzino che urta uno scaffale è fastidioso. Un robot domestico che urta un bambino è inaccettabile. I requisiti di sicurezza per i robot prossimi agli esseri umani sono di ordini di grandezza superiori a quelli per i robot industriali, e stiamo ancora sviluppando standard e tecnologie per soddisfarli.
Il costo è proibitivo per i consumatori. Figure non ha annunciato i prezzi per i consumatori, ma le stime pongono i robot umanoidi tra i $50.000 e i $100.000 inizialmente. Questi sono il prezzo di un’auto, non di un elettrodomestico. La robotica per i consumatori deve scendere nella fascia di prezzo $5.000-$10.000 per raggiungere un’adozione di massa.
La Mia Previsione per i Cinque Anni
I robot da magazzino e logistica saranno ovunque. I robot chirurgici si espanderanno a più tipi di procedure. I robot agricoli diventeranno comuni nelle grandi aziende agricole. I robot domestici rimarranno ancora novità costose — utili abbastanza da giustificare il prezzo per i ricchi early adopters, ma non ancora come un elemento base per la casa come un Roomba.
La variabile è se i modelli fondamentali per la robotica raggiungeranno una svolta nella generalizzazione. Se un robot può imparare un nuovo compito da una dimostrazione di 30 secondi anziché da ore di addestramento, l’economia cambia completamente. Diversi gruppi di ricerca si stanno avvicinando. I prossimi anni saranno affascinanti.
🕒 Published: