Mistero nella notte, la polizia ferma l’auto e fa una scoperta sconcertante che ha lasciato gli agenti di stucco, nessuno poteva credere a quello che era appena accaduto
Succede in pochi secondi, in una notte come tante, davanti a un checkpoint mirato a intercettare chi guida in stato di ebbrezza.

Una vettura esegue una svolta a U vietata. La pattuglia la segue, la ferma, si avvicina al finestrino con i consueti gesti, il taccuino pronto e la domanda di rito sulle labbra: “Patente e libretto?”.
Solo che al volante non c’è nessuno. A bordo, passeggeri e sensori; a “guidare”, un sistema di guida autonoma. Il sipario si apre su una scena che sembra fantascienza, ma è già cronaca: a San Bruno, in California, una Waymo viene fermata dopo la manovra irregolare e gli agenti, davanti a un’auto senza conducente, restano letteralmente senza parole.
Sui social, l’ironia vola: “Nei nostri blocchetti non esiste la casella ‘robot’”. Ma dietro la battuta c’è un problema reale, e gigantesco.
Dalla svolta a U al dilemma legale come si dovrebbe comportare un agente ?
Il primo nodo è giuridico e riguarda la responsabilità. La legge californiana oggi prevede che un’infrazione stradale sia contestata a una persona fisica. Tradotto: per elevare una multa bisogna identificare qualcuno.

Un autista, un proprietario presente, un responsabile al volante. In un veicolo a guida autonoma di livello avanzato, però, il soggetto “alla guida” è un software. Fino al 2026, questo scarto tra realtà tecnologica e linguaggio normativo crea un vuoto difficile da colmare sul campo. Dal luglio 2026 dovrebbe arrivare un primo aggiustamento: la possibilità di notificare direttamente alle aziende produttrici “non conformità” legate a comportamenti del veicolo. Un passo avanti, certo, ma non ancora la risposta definitiva.
Gli esperti di sicurezza stradale e i giuristi che osservano la transizione segnalano che la sanzione amministrativa, se non calibrata, rischia di scivolare addosso come acqua. Senza meccanismi di enforcement chiari e incisivi, l’effetto potrebbe ridursi a richiami tecnici e aggiornamenti minori, senza intervenire sulle cause.
Eppure la catena della responsabilità non è banale: c’è il produttore del veicolo, lo sviluppatore del software, l’operatore della flotta che gestisce le missioni, talvolta un passeggero che imposta la corsa. Chi risponde, e per che cosa, quando una svolta a U vietata non è un’imprudenza umana ma il risultato di una decisione algoritmica?
Da più parti arrivano proposte per costruire un sistema robusto e trasparente. Si parla di “scatole nere” obbligatorie che registrino in dettaglio ogni manovra, di telemetrie accessibili alle autorità con garanzie di tutela dei dati, di protocolli standardizzati per la ricostruzione degli eventi.
Sul piano tecnico, i costruttori spingono su tre leve: geofencing per limitare l’operatività a zone mappate e prevedibili; aggiornamenti software da remoto per correggere rapidamente errori; capacità di intervento sulla vettura in caso di anomalia. Ma ogni strumento apre dilemmi: più accesso ai dati significa anche più attenzione alla privacy; più vincoli di area riducono il rischio ma limitano l’utilità del servizio; più poteri di controllo richiedono responsabilità e audit indipendenti.
Il fronte operativo coinvolge direttamente le forze dell’ordine. Come si ferma in sicurezza un’auto senza conducente? Chi comunica con chi, e come, quando non c’è un guidatore da identificare? Servono protocolli ad hoc: canali diretti con il centro di controllo dell’operatore, segnali standardizzati che il veicolo sappia riconoscere e a cui si adegui, training specifico per gli agenti su come interagire con sistemi sensorizzati e portelloni che si sbloccano da remoto.
La scena di San Bruno mette in luce anche dettagli apparentemente minori: dove si collocano i documenti del veicolo? Come si identifica in modo univoco l’unità? Qual è la procedura se i passeggeri sono a bordo ma non hanno alcun controllo sul mezzo?
Innovazione tecnologica vs. regolamentazione: trovare il giusto equilibrio per la polizia e gli automobilisti
Dall’altra parte della barricata, le aziende tecnologiche rivendicano la necessità di sperimentare. Gli algoritmi migliorano con i chilometri, dicono, e bloccarne lo sviluppo con regole troppo stringenti rischia di rallentare un progresso che promette riduzione degli incidenti, efficienza dei trasporti, accessibilità per chi non può guidare.

Il confine tra prudenza regolatoria e freno all’innovazione è sottile e mobile, soprattutto in un settore in cui ogni aggiornamento di software modifica il comportamento stradale di migliaia di veicoli in poche ore.
Fuori dalla California, il dibattito è altrettanto acceso. In Europa si lavora a cornici comuni e a standard condivisi per sistemi automatizzati, mentre alcune normative tecniche internazionali già regolano funzioni limitate di guida automatizzata in contesti specifici. Paesi e città sperimentano corridoi operativi, sandbox regolatorie, monitoraggi in tempo reale delle flotte. La domanda che li attraversa è la stessa: come far convivere una tecnologia in rapida evoluzione con strade progettate per l’imprevedibilità umana?
Intanto, le immagini di San Bruno restano. L’agente che si china al finestrino, il silenzio di un abitacolo senza volante “umano”, i passeggeri che attendono istruzioni da un call center a centinaia di chilometri, il libretto delle multe che sfoglia pagine senza trovare la casella giusta. Un’istantanea di transizione, in cui la realtà corre più veloce delle parole che dovrebbero descriverla e governarla.