
I sistemi Autopilot e Full Self-Driving (FSD) di Tesla continuano ad affrontare sfide legali. L’azienda sostiene che i nomi della tecnologia sono fuorvianti per i conducenti,
Martedì Tesla ha ottenuto una vittoria in una causa contro il suo software di autopilot. Una giuria californiana ha stabilito che la funzione di pilota automatico di Tesla non è responsabile dell’incidente che ha ucciso un conducente Tesla e ferito due passeggeri nel 2019. Lo riferisce Reuters.
La causa sosteneva che il software di assistenza alla guida di Tesla aveva causato la Tesla Model 3 che Micah Lee stava guidando per uscire da un’autostrada della California e schiantarsi contro un albero, avvolgendosi nelle fiamme. Lindsay Molander e suo figlio Parker Austin, entrambi gravemente feriti nell’incidente, hanno intentato una causa accusando il software di Tesla di aver forzato la rotazione brusca del volante.
Tesla, altra indagine sull’auto pilot per incidente mortale
«Hanno venduto l’hype e la gente l’ha comprato», ha detto l’avvocato di Molander, Jonathan Michaels, nelle sue argomentazioni di apertura davanti ai giurati, secondo quanto riportato il mese scorso dal Washington Post. Tesla «ha deciso di mettere la propria azienda al di sopra della sicurezza degli altri».
L’avvocato di Tesla ha sostenuto che il software dell’azienda non ha causato l’incidente, sostenendo invece che si è trattato di un “classico errore umano” e dicendo che la funzione Autopilot è “fondamentalmente solo un controllo della velocità di crociera”, ha riferito il punto vendita.
Un’autopsia ha mostrato che Lee aveva alcol in corpo al momento dell’incidente, ma non era sufficiente a superare i limiti legali di intossicazione della California. L’avvocato di Tesla Michael Carey ha detto ai giurati: «Quando qualcuno ha un incidente dopo aver bevuto qualche drink, non accettiamo le sue scuse», ha riferito il New York Times. Ha inoltre sostenuto che non è chiaro se la funzione del pilota automatico fosse attivata al momento dell’incidente.
Tesla, ancora guai per l’autopilot. Cos’è l’Elon Mode?
Molander e l’avvocato di suo figlio hanno sostenuto che Tesla era a conoscenza di un difetto del software che avrebbe potuto far sterzare l’auto senza preavviso e nonostante l’intervento umano, ma la società ha affermato che il software non era in grado di sterzare l’auto così improvvisamente come nell’incidente .
La giuria composta da 12 membri ha deliberato nell’arco di quattro giorni e con un voto di 9 contro 3 ha affermato di aver riscontrato che il veicolo non aveva difetti di fabbricazione e che Tesla non era responsabile dell’incidente mortale.
La società ha vinto un processo simile ad aprile per una causa che sosteneva che il suo sistema di pilota automatico fosse in errore quando una Model S ha sterzato contro un marciapiede, ferendo il conducente, a Los Angeles.
I sistemi Autopilot e Full Self-Driving (FSD) di Tesla continuano ad affrontare sfide legali. L’azienda sostiene che i nomi della tecnologia sono fuorvianti per i conducenti, che potrebbero credere che il veicolo non richieda il monitoraggio umano quando i sistemi sono attivati.
(foto SHUTTERSTOCK)