
L’intelligenza artificiale (IA) promette di rivoluzionare molti aspetti della nostra vita, ma il suo utilizzo non è privo di rischi, come dimostra un recente episodio a New York City. Un sistema di telecamere “intelligenti”, installate sugli autobus e progettate per automatizzare l’emissione di multe per le violazioni del codice della strada, ha commesso un errore clamoroso, multando ingiustamente 3.800 automobilisti.
Il sistema, denominato Automated Camera Enforcement (ACE), è gestito dalla Motor Traffic Authority (MTA) di New York e mira a migliorare la fluidità del traffico degli autobus, identificando e sanzionando automaticamente i veicoli in divieto di sosta nelle corsie a loro dedicate. L’obiettivo è ambizioso, considerando che la rete di trasporto pubblico di New York conta quasi 6.000 autobus, 333 percorsi e trasporta circa 731 milioni di passeggeri all’anno.
L’errore si è verificato a causa di un problema di programmazione che ha portato le telecamere a multare anche le auto parcheggiate negli spazi alternativi legali che interrompono periodicamente alcune corsie riservate agli autobus. In altre parole, il sistema non è stato in grado di distinguere correttamente tra violazioni reali e parcheggi legittimi.
La situazione è aggravata dal fatto che le multe sono state emesse durante la fase di “avvertimento” dell’iniziativa ACE. Durante questa fase, il sistema dovrebbe essere in fase di test e non dovrebbe emettere sanzioni reali. Inoltre, le foto scattate dalle telecamere, che dovrebbero essere verificate da un operatore umano prima dell’emissione della multa, non sembrano essere state sottoposte a tale controllo.

La MTA ha riconosciuto l’errore e ha dichiarato di aver rimborsato le multe già pagate e annullato quelle pendenti, oltre ad aver corretto il problema del software. Nonostante l’incidente, l’ente prevede di installare migliaia di telecamere aggiuntive sugli autobus di New York City nel prossimo futuro.
Questo episodio solleva importanti interrogativi sull’affidabilità dei sistemi basati sull’IA, soprattutto quando si tratta di applicare la legge e comminare sanzioni. L’incidente evidenzia la necessità di una rigorosa supervisione umana sui sistemi di IA, al fine di garantire che vengano utilizzati in modo equo e responsabile. L’errore delle telecamere a New York è un monito per tutti coloro che si affidano all’IA per compiti delicati: l’intelligenza artificiale può essere un potente strumento, ma non è infallibile e il suo utilizzo richiede attenzione e prudenza.
Noleggio a lungo termine: i 10 consigli per scegliere bene. Dall’anticipo al canone, dai servizi alla restituzione dell’auto
Comprare auto cinesi conviene davvero? Oltre 50 auto tra cui scegliere. Abbiamo analizzato l'offerta di MG, BYD, Omoda e tutti gli altri brand del Dragone. Attenzione però ai falsi risparmi....