
28 Luglio 2022
Sembra che per l'Autopilot di Tesla non ci sia pace. Un paio di settimane fa era arrivata la notizia che la NHTSA aveva deciso di avviare un'inchiesta sulla tecnologia di guida assistita del costruttore americano che porterà ad indagare sulle cause di 11 incidenti avvenuti da inizio 2018 che hanno determinato un decesso e 17 feriti. Adesso, l'Autopilot è tornato nuovamente sotto i riflettori a causa di un incidente che ha coinvolto una Tesla Model 3 in Florida.
A quanto si apprende, sabato mattina, vicino ad Orlando, l'auto elettrica con l'Autopilot inserito ha urtato il lato sinistro di un'auto della polizia ferma sul ciglio della strada con i lampeggianti accesi per soccorrere un veicolo in panne (una Mercedes) che è stato a sua volta colpito dalla Tesla. Nello scontro, l'agente di polizia è rimasto illeso, mentre il conducente della Tesla e quello dell'auto in panne hanno riportato solo lievi ferite.
Happening now: Orange County. Trooper stopped to help a disabled motorist on I-4. When Tesla driving on “auto” mode struck the patrol car. Trooper was outside of car and extremely lucky to have not been struck. #moveover. WB lanes of I-4 remain block as scene is being cleared. pic.twitter.com/w9N7cE4bAR
— FHP Orlando (@FHPOrlando) August 28, 2021
La polizia della Florida ha detto che avrebbe segnalato l'incidente alla NHTSA e a Tesla. Le indagini permetteranno di capire l'esatta dinamica dell'incidente che poteva avere conseguenze ben peggiori. Indubbiamente, però, quanto accaduto potrebbe dare alla NHTSA nuovo materiale su cui lavorare per la sua inchiesta. Vale la pena notare che in passato l'Autopilot era stato accusato più volte ma alla fine era stato "assolto" dalle responsabilità degli incidenti in quanto la colpa era poi ricaduta sui conducenti che non avevano utilizzato correttamente il sistema di guida assistita.
Come noto, i conducenti devono sempre mantenere salde le mani sul volante e prestare attenzione alla guida per poter intervenire in caso di necessità. Il problema spesso è che molti possessori delle Tesla pensano che le loro auto siano in grado di poter guidare da sole. Nel corso del tempo sono emersi comportamenti davvero pericolosi da parte di alcune persone. Si pensi, per esempio, a quanto successo lo scorso anno in Canada quando un giovane è stato trovato a "sonnecchiare" con il sedile inclinato, lasciando che la sua Model S guidasse da sola.
Non rimane, a questo punto, che attendere novità sull'incidente e soprattutto sull'inchiesta che la NHTSA ha deciso di portare avanti. Tesla non ha commentato l'incidente ma nel suo ultimo rapporto sulla sicurezza ha evidenziato che ha registrato un incidente ogni 4,19 milioni di miglia percorse in cui i conducenti avevano attivato l'Autopilot. I dati più recenti di NHTSA, aveva sottolineato il costruttore, mostrano che negli Stati Uniti c'è un incidente automobilistico ogni 484.000 miglia. Un modo per dire che le sue auto con l'Autopilot attivo hanno meno incidenti rispetto alla media.
Citroen C5 Aircross Plug-in Hybrid alla prova del pendolare: consumi e comfort
Cupra Born eBoost 231 CV: è lei l'elettrica più bella del reame VAG? Prova e video
Mild Hybrid, Full Hybrid e Plug-in Hybrid: le differenze spiegate bene!
Polestar 2: prova su strada, l'elettrica che copia Tesla (e non è un male) | Video
Commenti
Come tutti quelli che girano con auto aziendale .. pure furgoni e mini van tutti a palla
Pensiamo a rimettere i computer negli scantinati.
Pensa se microsoft si prendesse la responsabilità economica e legale di tutti i dati persi a causa dei BSOD dei suoi sistemi...
Sostanzialmente questo stai proponendo, e non accadrà mai. La guida autonoma non s'ha da fare. Vuoi dormire mentre viaggi? Piglia l'autobus va.
Mah, di solito in una macchina la carrozzeria non è l'unica cosa che si può rompere (vedasi ossa), però contento lui.
Colpa della pubblicità ingannevole di Tesla se la gente usa male questo "sistema".
Lo pubblicizzano come se il fatto di doversi tenere pronto a guidare sia un capriccio dei governi e non una pezza ai grossi limiti del sistema.
Spero siano cambiate le cose ultimamente ....
cadono a pezzi solo a guardarle ...
In caso di processo può valere eccome. Ovvio che il giudice deve ammettere le riprese come prova ma credo che in caso di feriti non ci sarebbero dubbi a ammetterle. Comunque ad una mia collega che ha avuto un sinistro l'assicurazione le ha chiesto se avesse la dashcam.
Anche io, ma preferisco comunque avere il filmato che non averlo.
L'auto è in affitto e non è la sua ... È cmq un dipendente
Pagata da un'azienda che è leader di mercato e se lo può permettere senza problemi ... Tra l'altro è una Giulia ci sono aziende che sparano molto più alto
Le medie !!! Vai sempre a palla poi me lo dici che medie fai ... Quando l'auto non è tua che ti frega di stare attento ... E questo ha il piede pesantissimo
Ho letto spesso di riprese con dashcam non valevoli come prova in caso di incidente ....
E' il capo, tu lavora sodo e potrá comprarsi una quadrifoglio!
Pagata dai dipendenti
E vanno dentro il supermercato direttamente in macchina
Impossibile, le medie stanno sui 10 con estremi ai 5 km/l, ma mai di media.
Idem! Infatti stavo per mandare il cv
No, l'ho installata solo dopo.
Avevi la dashcam in quell'incidente ??
Non ho uno Xiaomi ma cosa cavolo c'entra con le Tesla ??
Questo lo dovresti scrivere sotto al commento a cui ho risposto. Preso in causa?
Cosa cavolo c'entra ??? Ma che regionamenti sono ???
Bravo, non rispondere. Goditi il cinesone con software indecente
uso solo stonex
Hai uno xiaomi?
ho visto le vecchie panda 4x4 arrampicarsi sulla neve dove suv e fuoristrada da 100 K si arenavano
Non sarebbe una cattiva idea. Già ora giro con una dashcam per tutelarmi (una volta un tizio non mi ha dato la precedenza e poi ha ribaltato la situazione procurandosi un testimone falso).
Non credo succederà mai.
Sono d'accordo con te su questo. Il mio è più un "cavillo" logico:
Se è autonoma al 100%, vuol dire che l'autista può anche dormire, o non esserci proprio. In questo caso chi è il responsabile?
Se richiede comunque una persona vigile, allora non è autonoma al 100%.
In entrambi i casi il numero di incidenti è minore del caso attuale (cioè guida con autista). Hai capito cosa intendo?
per quello gli aerei hanno la scatola nera che registra ogni minima cosa.
prima o poi la metteranno anche sulle auto a guida autonoma e in caso d'incidente grave la polizia l'analizza e trova il colpevole (AP o guidatore)
Ma infatti è cosi hai pienamente ragione.. ma qui dentro non hanno testa per capire sono delle capr3 spaventose
Concordo a pieno con te, è così anche nel mondo dell'automazione industriale. Nessuno garantisce sistemi con efficienze del 100%, non vedo come possano essere infallibili delle auto in strada considerando tutte le variabili possibili
E' quello che ho cercato di spiegare nei miei commenti ma la gente è ottusa come la m3rd4 veramente... gli aerei le navi e i treni non hanno grosse problematiche da risolvere con sistemi autonomi o semi autonomi.. le vetture su strada sono ben altro, non ci potrà mai essere una guida ne automatica ne semiautomatica, la strada conferisce migliaia di insidie che i cieli i mari e le strade ferrate non hanno... non esiste un intelligenza artificiale in grado di far guidare una vettura in maniera autonoma almeno non ora.. e nemmeno tra un decennio... persino Musk stesso in una intervista ha dichiarato questo.. ma qui dentro sono tuti sapientoni del cactus senza un briciolo di cervello
Si ma l'autopilot in autostrada può potenzialmente sostituire la tua guida, esattamente come un aereo ad alta quota, vita, tiene la rotta, la velocità e la quota. In cielo però non è pieno di stupidi come in autostrada.
Il tuo ragionamento non fa una piega, ma il mio so adatta di più alla situazione poiché molte persone, avendo pagato per l'autopilota, lo usano come tale.
L'autopilot chiedeva soccorso a causa del conducente mona.
Gli autisti non sono sicuri al 100%, se la guida autonoma è più sicura è già un ottimo traguardo.
Secondo me è perché cosi l'autopilot è sicuro di essere soccorso immediatamente...
Se dai una chupa chupa in mano ad un adulto e gli dici che è velenoso, con tanto scritto sul chupa chupa che è velenoso e di non leccarlo beh. Stupido lui se lo lecca.
Chi guida una tesla non è un bambino. Se fai una azione pericolosa con tanto di avvertimento ogni 30 secondi che ti dice che l'azione che stai facendo è pericolosa e te continui a fare il contrario di quello che continua a dirti l'avvertimento ogni 30 secondi. Beh, è un darwin award. Non possiamo continuare a trattare tutti come bambini.
E cosa c'entra?? Ce l'ha anche BMW se è per questo...
Si ma non devi dirlo a me....
Quello che sto dicendo è che se non è sicura al 100% non sarà mai autonoma. Sarà come adesso, cioè che l'autista deve sempre fare attenzione a quello che succede, perché è lui il responsabile.
Già adesso pare che sia più sicura della guida umana, ma non è autonoma al 100%
11 incidenti contro i mezzi di soccorso, 12 con questo. Ma tutti sti pippini che erano sul sedile del guidatore che cavolo stavano facendo ? Vedi che l'auto non decelera e questi cosa fanno harakiri ? Mah ... Evidentemente le luci dei mezzi di soccorso americani li fanno cadere in trance...
Non se attacchi una bottiglietta d'acqua al volante...
Un po'come dare un chupa chupa in mano ad un bimbo e dirgli di scartarlo senza però appoggiarvici la lingua. Quanti ne troverai di così responsabili?