Με εκατοντάδες τροχαία και δεκάδες θανάτους συνδέονται τα Autopilot και FDS της Tesla

Οι αρμόδιες αρχές των ΗΠΑ έκριναν ότι οι λειτουργίες οδηγικής υποβοήθησης που διαθέτει στην αγορά η Tesla δεν κατορθώνουν να διατηρούν τους οδηγούς αρκετά προσηλωμένους στη διαδικασία της οδήγησης, με συχνά μοιραία αποτελέσματα.

Το Μάρτιο του 2023, μαθητής στη Βόρεια Καρολίνα αποβιβαζόταν από σχολικό λεωφορείο, όταν τον παρέσυρε ένα Tesla Model Y, το οποίο κινούταν με "ταχύτητες αυτοκινητοδρόμου", σύμφωνα με το πόρισμα ομοσπονδιακής

έρευνας που δόθηκε στη δημοσιότητα την Παρασκευή. Ο οδηγός του Tesla είχε ενεργοποιήσει τη λειτουργία Autopilot, το σύστημα υποβοήθησης που έχει αναπτύξει η εταιρία και, όπως επιμένει ο Ίλον Μασκ, τελικά θα οδηγήσει σε πλήρως αυτόνομα οχήματα.

Ο 17χρονος μαθητής μεταφέρθηκε με ελικόπτερο σε νοσοκομείο της περιοχής, σε κρίσιμη κατάσταση. Όμως, σύμφωνα με το πόρισμα της έρευνας και αφού ερευνήθηκαν εκατοντάδες παρόμοια περιστατικά, προκύπτει ένα μοτίβο μειωμένης προσοχής από την πλευρά των οδηγών, που συνδυάζεται με τις αδυναμίες της τεχνολογίας που έχει αναπτύξει η Tesla και έχει ως αποτέλεσμα εκατοντάδες τραυματισμούς και δεκάδες θανάτους.

Συνολικά, η NHTSA ερεύνησε 956 τροχαία, από τον Ιανουάριο του 2018 έως τον Αύγουστο του 2023. Από αυτά τροχαία, ορισμένα από τα οποίο αφορούσαν συγκρούσεις μεταξύ οχημάτων της Tesla, 29 άνθρωποι έχασαν τη ζωή τους. Καταγράφηκαν επίσης 211 τροχαία όπου "η εμπρόσθια πλευρά του Tesla προσέκρουσε σε όχημα ή αντικείμενο που βρισκόταν στην πορεία του". Τα τροχαία αυτά, που σε πολλές περιπτώσεις ήταν τα πλέον σοβαρά, οδήγησαν σε 14 θανάτους και 49 τραυματισμούς. 

Η NHTSA αποφάσισε να ξεκινήσει έρευνα καθώς καταγράφονταν διαδοχικά περιστατικά στα οποία εμπλέκονταν οχήματα Tesla τα οποία προσέκρουαν πάνω σε σταματημένα οχήματα υπηρεσιών αντιμετώπισης εκτάκτων καταστάσεων, τα οποία ήταν σταθμευμένα στην άκρη του δρόμου. Τα περισσότερα από αυτά τα περιστατικά καταγράφηκαν βραδινές ώρες, με το λογισμικό να μη λαμβάνει υπόψη του μέσα όπως φώτα εκτάκτου ανάγκης, φωτοβολίες, κώνους και φωτισμένες πινακίδες εκτροπής της κυκλοφορίας.

Στην έκθεσή της, η NHTSA αποφάνθηκε ότι το Autopilot -και σε ορισμένες περιπτώσεις το FSD- δεν ήταν σχεδιασμένα έτσι ώστε να διατηρούν την προσοχή του οδηγού στη διαδικασία της οδήγησης. Η Tesla υποστηρίζει ότι προειδοποιεί τους πελάτες της ότι πρέπει να είναι συγκεντρωμένοι στην οδήγηση ενώ χρησιμοποιούν τα Autopilot και FSD, μεταξύ άλλων διατηρώντας τα χέρια τους πάνω στο τιμόνι και το βλέμμα τους στο δρόμο. Όμως, η NHTSA διαπίστωσε ότι σε πολλές περιπτώσεις οι οδηγοί χαλάρωναν υπερβολικά και έπαυαν να είναι συγκεντρωμένοι, οπότε, εάν χρειαζόταν να επέμβουν, πολύ συχνά το έκαναν με καθυστέρηση.

Σε 59 περιστατικά τα οποία διερεύνησε η NHTSA, η υπηρεσία διαπίστωσε ότι οι οδηγοί των Tesla είχαν αρκετό χρόνο, "πέντε ή περισσότερα δευτερόλεπτα", πριν το τροχαίο, για να αντιδράσουν. Σε 19 από αυτά τα περιστατικά το εμπόδιο ήταν ορατό επί 10 ή και περισσότερα δευτερόλεπτα πριν την πρόσκρουση. Αξιολογώντας τα δεδομένα που παρείχε η Tesla από τα όσα είχαν προηγηθεί του τροχαίου, η NHTSA διαπίστωσε ότι οι οδηγοί, στην πλειοψηφία των περιστατικών που διερευνήθηκαν, δεν πάτησαν φρένο ούτε επιχείρησαν να αποφύγουν το εμπόδιο.

Η ΝHTSA συνέκρινε επίσης τις λειτουργίες αυτοματισμού Επιπέδου 2 (L2) που παρέχει η Tesla με αντίστοιχα προϊόντα διαθέσιμα σε οχήματα άλλων εταιριών. Αντίθετα με εκείνα τα συστήματα, το Autopilot απενεργοποιούταν, αντί να επιτρέψει στους οδηγούς να αλλάξουν κατεύθυνση. Αυτό "αποθαρρύνει" τους οδηγούς από το να παραμένουν συγκεντρωμένοι στη διαδικασία της οδήγησης, αποφάνθηκε η NHTSA.

Ακόμη και η ονομασία του προϊόντος, "Autopilot" (Αυτόματος Πιλότος) είναι παραπλανητικός, αναφέρει η NHTSA, καθώς δημιουργεί την εντύπωση ότι δεν έχουν οι οδηγοί τον έλεγχο του οχήματος. Ενώ κάποιες εταιρίες χρησιμοποιούν όρους που παραπέμπουν σε "υποβοηθούμενη" ή "συνεργατική" διαδικασία, τα προϊόντα της Tesla παρασέρνουν τους οδηγούς να νομίσουν ότι είναι ικανότερα από ό,τι στην πραγματικότητα. Τόσο η γενική εισαγγελία της Καλιφόρνια όσο και το Υπουργείο Μεταφορών διερευνούν το κατά πόσο η Tesla επιδίδεται σε παραπλανητική περιγραφή και διαφήμιση των προϊόντων της.

Από την πλευρά της, η NHTSA αναγνωρίζει ότι η έρευνα την οποία πραγματοποίησε ενδέχεται να έχει κενά, εξαιτίας των δεδομένων τηλεμετρίας που παραχώρησε η Tesla. Αυτό θα μπορούσε να σημαίνει ότι υπήρξαν πολλά ακόμη περιστατικά τροχαίων με εμπλοκή των Autopilot και FSD, τα οποία η υπηρεσία δεν κατόρθωσε να εντοπίσει.

Μετά την ανακοίνωση της έρευνας, η Tesla προχώρησε στα τέλη του 2023 σε εθελοντική ανάκληση, διαθέτοντας ενημέρωση του λογισμικού, με την οποία προστέθηκαν επιπλέον προειδοποιήσεις στο Autopilot. Η NHTSA ανακοίνωσε σήμερα ότι διεξάγει νέα έρευνα, σχετικά με την ανάκληση αυτή, καθώς ειδικοί έχουν επισημάνει ότι η ενημέρωση του λογισμικού ήταν ανεπαρκής και εξακολουθούσε να επιτρέπει την κατάχρηση του συστήματος.

Το πόρισμα των ομοσπονδιακών αρχών έρχεται σε αντίθεση με τις επίμονες δηλώσεις του Μασκ ότι η Tesla είναι μια εταιρία τεχνητής νοημοσύνης η οποία βρίσκεται στο μεταίχμιο της κυκλοφορίας ενός πλήρως αυτόνομου οχήματος προσωπικής χρήσης. Εντωμεταξύ, μέσα στη χρονιά η εταιρία ετοιμάζεται να παρουσιάσει ένα ρομποτικό ταξί, το οποίο θεωρητικά θα σηματοδοτήσει μια νέα εποχή για την Tesla. Στη διάρκεια τηλεδιάσκεψης για την ανακοίνωση των -μάλλον απογοητευτικών- αποτελεσμάτων του πρώτου τριμήνου, ο Μασκ επέμεινε εκ νέου ότι τα οχήματα της εταιρίας του ήταν ασφαλέστερα από ό,τι εκείνα που οδηγούσαν άνθρωποι. 


Διαβάστε ολόκληρο το άρθρο

Keywords
Τυχαία Θέματα