C’era una volta l’auto. O meglio: c’era una volta l’auto come la conoscevamo, fatta soprattutto di meccanica, cavalli e cilindri. No, non è un’affermazione di “plastica” ma lo stato de facto dell’industria dell’auto.
AlCES 2026 (6-9 gennaio 2026) il messaggio è chiaro: la vettura resta al centro, ma cambia pelle. Diventa una piattaforma digitale che si aggiorna, conversa, impara e si integra con servizi e infrastrutture.
Se l’elettrico è la direzione (al netto delle tempistiche e dei mercati), la vera partita dei prossimi anni si gioca su software, potenza di calcolo e intelligenza “a bordo”. Non solo nel cockpit, con assistenti vocali sempre più naturali, ma anche fuori dall’abitacolo: fabbriche popolate da robot, logistica autonoma, mappe che diventano sensori. È l’inizio dell’era dell’“intelligenza fisica”.
A Las Vegas si sono visti i veicoli software-defined, in cui le funzioni principali sono determinate dal codice più che dall’hardware. Ma anche la Physical AI, l’intelligenza artificiale che prende forma nel mondo reale attraverso robot, sensori e sistemi autonomi: dalle linee di produzione fino, in prospettiva, ai servizi di mobilità. In questo quadro Hyundai è stata tra i protagonisti, portando sul palco l’evoluzione della propria strategia nella robotica con un robot umanoide firmato Boston Dynamics.
Su questa cornice si sono mosse le strategie dei principali gruppi e fornitori: Bmw, Hyundai–Boston Dynamics, Mercedes-Benz, Sony Honda Mobility, Bosch, Qualcomm, HERE, Valeo, PTC/Lamborghini e Kodiak AI. Ecco le novità più interessanti.
Per Bmw, il CES 2026 è il palcoscenico dell’iX3, primo modello della Neue Klasse a portare in produzione una grande novità tecnologica: il Bmw Intelligent Personal Assistant potenziato da Alexa+.
Nel comunicato ufficiale Bmw spiega che l’iX3 è il primo veicolo di serie a integrare Alexa+, la versione generativa dell’assistente Amazon, capace di dialoghi naturali e contestuali ben oltre i classici comandi vocali. La tecnologia alla base è un Large Language Model (LLM), cioè un modello di intelligenza artificiale generativa in grado di comprendere il linguaggio e formulare risposte articolate. A partire dalla seconda metà del 2026, la novità sarà introdotta gradualmente in Germania e USA su tutti i modelli della Casa con Bmw Operating System 9 e X. Questo sistema operativo consentirà di usufruire di applicazioni dedicate all’intrattenimento a 360°: musica, film, videogiochi ma anche app di lavoro come Zoom.
Sul fronte dell’interfaccia, le informazioni di guida principali salgono sul parabrezza grazie al Panoramic iDrive, con l’obiettivo di mantenere le mani sul volante e lo sguardo sulla strada, riducendo le distrazioni visive. La Casa ribadisce infine la filosofia “in evoluzione”: aggiornamenti over-the-air, nuove funzioni software e servizi digitali diventano parte della vita dell’auto, avvicinando il concetto di vettura a quello di dispositivo connesso.
Bmw sottolinea che questa generazione di veicoli è progettata per evolvere nel tempo. Nuove funzioni software, servizi digitali e aggiornamenti over‑the‑air diventeranno parte della normale vita dell’auto, avvicinando il concetto di vettura a quello di dispositivo connesso.
Hyundai al CES 2026 ha definito il suo concetto di Physical AI (AI fisica): tecnologie che raccolgono dati attraverso hardware e prendono decisioni autonome nel mondo reale. Un approccio che include robotica, smart factory e guida autonoma, alimentando un ciclo continuo: dati reali → apprendimento AI → applicazione su prodotti → miglioramento.
Il Gruppo coreano ha utilizzato il palcoscenico di Las Vegas per dettagliare la propria AI Robotics Strategy, centrata su un ecosistema di Group Value Network che integra robotica, produzione e AI generativa. Il protagonista assoluto sul palco è il nuovo Atlas di Boston Dynamics, versione completamente elettrica del robot umanoide.
Hyundai, nella nota ufficiale, indica l’obiettivo di avviare la produzione di massa di Atlas da impiegare nei propri stabilimenti a partire dal Metaplant in Georgia (USA). La Casa punta a circa 30.000 Atlas l’anno dal 2028, inizialmente per compiti come il sequencing delle parti, per arrivare entro il 2030 ad attività più ripetitive, pesanti e complesse, inclusi compiti di assembly. Secondo la compagnia coreana umani e robot sono co-worker; con gli umanoidi che sono pensati per assistere e collaborare con le persone, a partire dalle fabbriche.
Sul piano tecnico Atlas dispone di 56 gradi di libertà, articolazioni a rotazione completa e mani in scala umana con sensori tattili, pensate per manipolare oggetti in contesti industriali reali. Boston Dynamics annuncia inoltre una partnership con Google DeepMind per combinare la propria “athletic intelligence” con sofisticati modelli di apprendimento, segno che la frontiera si sposta verso robot capaci di apprendere rapidamente nuovi compiti.
Sul fronte prodotto, una delle novità più rilevanti è la GLC Electric di Mercedes. Il suv offre fino a 483 cv con doppio motore e un’autonomia che può arrivare a oltre 700 km WLTP. L’architettura a 800 V consente le ricariche rapide. All’interno, il sistema MBUX Hyperscreen e i servizi connessi puntano forte su aggiornamenti OTA, servizi in abbonamento e funzioni di guida assistita avanzata sviluppate insieme a partner come NVIDIA.

Un’altra novità è sistema di assistenza alla guida MB. DRIVE ASSIST PRO. Già disponibile in Cina dalla fine dell’anno scorso, arriverà anche negli Stati Uniti e costerà 3.950 dollari per tre anni. I clienti potranno anche scegliere abbonamenti mensili o annuali, ma i prezzi verranno comunicati più avanti.
Il sistema permette all’auto di guidare da un parcheggio fino alla destinazione, attraversando incroci cittadini, effettuando svolte e rispettando i semafori. È destinato a competere con Tesla, l’unica casa automobilistica che offre un prodotto simile negli Stati Uniti, chiamato Full Self-Driving (FSD). Si avvale di circa 30 sensori, tra cui 10 telecamere, 5 sensori radar e 12 sensori a ultrasuoni. Tutti questi sensori forniscono dati grezzi a un supercomputer estremamente potente, in grado di raggiungere fino a 508 TOPS.
Sony Honda Mobility, la joint venture tra le due Case giapponesi, torna al CES con la Afeela 1, la versione pre‑produttiva dell’elettrica che dovrebbe arrivare in Nord America entro l’anno. Una vettura ricca di sensori (45 tra telecamere/radar/Lidar) e una piattaforma di calcolo basata su Qualcomm Snapdragon Digital Chassis, con potenza nell’ordine delle centinaia di TOPS per supportare funzioni di guida assistita e intrattenimento avanzato.
La Sony punta molto sull’integrazione con Unreal Engine 5 per grafiche real‑time e ambienti immersivi, portando nel cockpit un linguaggio visivo da videogame e cinema, mentre Honda fornisce piattaforma veicolo e competenze ingegneristiche.
Inoltre, durante l’evento è stato presentato in anteprima mondiale un nuovo prototipo, la Afeela Prototype 2026. Si tratta di una vettura con carrozzeria rialzata che sfrutta l’ossatura della berlina. L’arrivo negli USA è previsto nel 2028.
La Afeella si posiziona come “auto‑dispositivo”: un oggetto a metà fra console, sala cinema personale e veicolo di lusso con funzionalità di assistenza avanzata (Level 2 oggi, ambizione Level 3 in futuro).
Bosch porta al CES una nuova generazione di cockpit intelligenti basati su AI, costruiti attorno a piattaforme di calcolo come NVIDIA DRIVE Orin e pensati per essere integrati sia su nuovi modelli sia su architetture esistenti.
La piattaforma è pensata per combinare riconoscimento vocale basato su LLM, computer vision (per analisi di abitacolo e strada) e integrazione con servizi cloud, incluso l’ecosistema Microsoft 365 per funzioni di produttività in mobilità. Il salto concettuale è da “interfaccia reattiva” (comando-esecuzione) a copilota proattivo: suggerisce azioni, anticipa esigenze (dalla climatizzazione alla pianificazione del percorso) e adatta l’interfaccia allo stato del guidatore.
Tra le altre innovazioni Bosch ha citato il radar Gen7 Premium, con capacità di rilevare oggetti fino a 200 metri e in grado di migliorare i sistemi ADAS. La società ha inoltre annunciato una partnership con Kodiak AI per lo sviluppo di piattaforme ridondanti per camion a guida autonoma. Su quest’ultimo accordo vi rimandiamo all’apposito paragrafo presente sotto.
Qualcomm ha usato il CES 2026 per mettere in vetrina i progressi delle piattaforme Snapdragon Ride e Snapdragon Cockpit, ormai adottate in numerosi programmi ADAS e di guida automatizzata. L’azienda ha annunciato nuove partnership con ZF, Leapmotor e LG, con soluzioni che vanno dalle centraline ADAS Level 2/3 alle architetture che gestiscono infotainment, assistenza alla guida e connettività su un’unica piattaforma hardware.
Le piattaforme combinano CPU Oryon, GPU Adreno e NPU Hexagon per processare in parallelo i flussi di dati di camere, radar, LiDAR e mappe ad alta definizione, abilitando funzioni come l’hands‑free driving (guida senza mani sul volante) su tratti autostradali e parcheggi automatizzati avanzati.
Qualcomm ha inoltre indicato una nuova fase della collaborazione con Google per semplificare l’integrazione dell’AI nei veicoli, combinando Snapdragon Digital Chassis con soluzioni software Automotive dell’ecosistema Google.
Qualcomm conferma il suo ruolo centrale nella trasformazione dell’industria automobilistica sempre più connessa e autonoma, grazie a piattaforme scalabili, open-source e integrate con intelligenza artificiale.
HERE Technologies: la mappa come sensore
HERE mostra le mappe AI‑powered usate come “sensore aggiuntivo” per l’automazione di livello 2+ e oltre.
Con Hyundai AutoEver, HERE porterà servizi di navigazione cloud‑based e aggiornamenti mensili a oltre 1 milione di veicoli Hyundai, Kia e Genesis, con funzioni come routing predittivo, informazioni corsia per corsia e better EV‑routing. Con Lucid Motors, le mappe HERE alimentano la pianificazione di viaggi elettrici: calcolo dell’autonomia reale, suggerimento di soste di ricarica e gestione intelligente delle colonnine lungo il percorso.
HERE collabora inoltre con Amazon (integrazione tra HERE Navigation e Alexa Custom Assistant) e con Qualcomm Snapdragon Ride per fornire dati HD essenziali ai sistemi di assistenza avanzata.
Valeo: sicurezza e monitoraggio avanzato dell’abitacolo
Valeo arriva al CES con un focus forte sulla sicurezza, presentando una serie di sistemi di monitoraggio sviluppati insieme a Seeing Machines. Tra i temi: tracciamento dello sguardo del conducente, rilevazione dell’attenzione effettiva rispetto ai pericoli segnalati dal sistema e verifica della presenza del casco per i veicoli a due ruote. Tra le demo figurano il Valeo Panovision head‑up display, con avvisi adattivi e Safe InSight, che mostra un approccio multilivello al monitoraggio di guidatore e interni.
PTC & Lamborghini: la supercar è software‑defined
Non tutte le novità del CES riguardano ciò che vede il cliente finale: PTC presenta con Lamborghini una visione di Intelligent Product Lifecycle, cioè di gestione digitale completa del ciclo di vita del veicolo.
Secondo le aziende, strumenti come Windchill (PLM) e Codebeamer (ALM) consentono di collegare requisiti software, progettazione meccanica e processi di produzione in un unico “thread” digitale, riducendo errori e tempi di sviluppo. Nelle demo CES viene mostrato il ciclo completo di un componente (per esempio un elemento di carrozzeria): dalla modellazione CAD con Creo alla gestione dei requisiti, fino alla preparazione per il service.
Nel trasporto pesante, Kodiak AI e Bosch annunciano un accordo strategico per scalare l’hardware e la sensoristica dei camion autonomi. Previsto un “pacchetto” di sensori Bosch che Kodiak potrà integrare su camion di classe 8, sia in uscita dalla fabbrica sia tramite retrofit, con l’obiettivo di portare la propria tecnologia driverless su flotte più ampie.
Kodiak afferma di aver già percorso milioni di miglia in modalità autonoma e di aver consegnato migliaia di carichi, posizionandosi tra i player più avanzati nel segmento dei truck autonomi. Un segnale chiaro: l’automazione non riguarda soltanto l’auto privata, ma, soprattutto, la logistica a lungo raggio.
Il CES 2026 racconta un’industria che non misura più il progresso soltanto con cavalli e chilometri di autonomia, ma con TOPS di calcolo, qualità delle mappe, capacità degli assistenti AI e integrazione della robotica lungo l’intera catena del valore: dalla fabbrica alla strada. In altre parole, l’auto del futuro non sarà solo elettrica. Sarà intelligente, connessa e, sempre di più, “fisica” nel modo in cui l’AI si traduce in azioni concrete, nel mondo reale.
| Brand / Azienda | Prodotto/Novità | Focus Tecnologico | Ambito | Dettagli Chiave |
|---|---|---|---|---|
| BMW | iX3 & Alexa+ | Gen AI / LLM | SOFTWARE | Dialoghi naturali, Panoramic iDrive. |
| Hyundai & Boston Dynamics | Robot Atlas | Physical AI | ROBOTICA | 30.000 unità/anno dal 2028. |
| Mercedes-Benz | GLC Electric | MB.DRIVE ASSIST | AUTO | 700 km autonomia, guida autonoma urbana. |
| Sony Honda Mobility | Afeela 1 | Unreal Engine 5 | MEDIA | Auto come dispositivo di intrattenimento. |
| Qualcomm | Snapdragon Digital Chassis | Computing | HARDWARE | Integrazione con ecosistema Google. |
Il nuovo crossover cinese plug-in hybrid arriva nelle concessionarie italiane con prezzi a partire da 38.900 euro
Dalla stretta sulle prestazioni delle elettriche alla fine degli incentivi statali: Pechino cambia strategia e le conseguenze si faranno sentire anche sul mercato europeo