22 Gennaio 2026
Cosa distingue un semplice macchinario da un vero robot? Spesso usiamo questi termini come sinonimi, ma nel mondo della robotica moderna esiste una definizione puntuale che si spiega con il paradigma del Sense-Plan-Act.
L’approccio è generale e può applicarsi a diversi ambiti inclusi i robot mobili come gli IMR (Industrial Mobile Robots), le celle robotizzate dotate di bracci o sistemi analoghi per la lavorazione industriale.
1. Percepire l’ambiente = Sense
Un robot non può agire se non sa cosa lo circonda. La fase di percezione “Sense” è fondamentale e si affida a una vasta gamma di sensori, propriocettivi o esterocettivi per rappresentare il mondo circostante e acquisire informazioni necessarie a pianificare le azioni. Fra i sensori maggiormente utilizzati si possono avere:
Sistemi di visione: utilizzati per riconoscere oggetti, forme e colori, misurare distanze e prendere decisioni in base alle immagini acquisite. La visione può anche estendersi oltre il campo visibile umano per riconoscere tipologie di materiali, proprietà chimiche, ottiche o fisiche altrimenti non misurabili.
Sistemi laser, sensori di orientamento e posizione: l’uso di accelerometri, giroscopi ed encoder consente ai robot di scansionare l’ambiente circostante, ricostruire le planimetrie degli ambienti di lavoro, riconoscere ostacoli fissi o mobili e misurarne la distanza, la direzione, l’inclinazione e l’accelerazione.
Sensori di forza e contatto: permettono di misurare le interazioni meccaniche anche in termini di pressioni, vibrazioni e sbilanciamento del carico. Molto utili nel settore dei bracci robotici per modulare la forza di presa degli oggetti, questi sensori trovano numerose applicazioni anche nel campo della movimentazione su veicoli autonomi.
2. Pianificare il movimento = Plan
Una volta raccolti i dati, entra in gioco il “cervello” del robot, costituito da PC, schede elettroniche e PLC. Nella fase di “Plan”, i robot elaborano le informazioni e prendono decisioni (Machine Learning, Reinforcement Learning o Planning & Scheduling), utilizzando spesso unità di calcolo dedicate per ciascuna funzione critica. Ad esempio:
Microprocessori per il controllo di motori e periferiche, oppure per l’interfacciamento di specifici sensori o sistemi di comunicazione.
Computer per implementare gli stack software di controllo del robot stesso, che può includere gli algoritmi di navigazione autonoma, di gestione degli ostacoli, l’elaborazione di dati, immagini e il calcolo di traiettorie.
PLC per applicazioni di sicurezza, con architetture ridondanti e monitorate per la gestione in sicurezza del macchinario (arresti di emergenza, allerta visivi, procedure di sicurezza…), con risposte in tempo reale.
3. Agire con precisione = Act
La terza componente di un sistema robotico è l’azione fisica “Act”, ossia come un robot interagisce con il mondo circostante al fine di modificare il proprio stato o quello di ciò che lo circonda. Esistono diversi tipi di azione e tutte comportano il trasferimento di energia sotto le sue svariate forme: principalmente la robotica è utilizzata per trasferire movimento ovvero energia cinetica, ma in alcuni casi si potrebbe avere una interazione luminosa, lo spostamento di aria, di energia elettromagnetica, termica etc. Pilotare dei motori elettrici per muovere un’IMR nell’ambiente con il suo carico, movimentare un braccio robotico dotato di una pinza o di una mano possono essere alcune delle applicazioni pratiche.
Ad esempio, il paradigma Sense-Plan-Act prende vita in progetti concreti, pensati, progettati e realizzati in Italia da Co-Robotics, spin off della Scuola Sant’Anna e azienda del Gruppo Alascom.
IMR250-MOBOT: il robot made in Italy
Si tratta di un IMR (Industrial Mobile Robot) dotato di un braccio e una mano antropomorfi, progettato per la presa e il posizionamento di oggetti su sistemi in movimento (Mobile Manipulation). Le due telecamere, una posta sul polso della mano e una sul veicolo autonomo, permettono al sistema di osservare le aree di lavoro della mano robotica e del robot in prima persona, utilizzando algoritmi AI. I sistemi di visione artificiale sfruttano un’architettura parallelizzata di sistemi di calcolo per consentire di utilizzare contemporaneamente più applicazioni software sullo stesso robot. La forma compatta e agile e la possibilità di ruotare sul posto permettono di installarlo in ambienti ristretti (70cm di passaggio). Questa soluzione aumenta la capacità di interazione con oggetti e sistemi nati per essere utilizzati dall’uomo, senza ridurne la funzionalità.