Знову помилка: Tesla на автопілоті переїхала манекен дитини. ВІДЕО
Під час незалежних випробувань система Full Self-Driving (FSD) від Tesla знову опинилася в центрі скандалу.
Електромобіль Model Y, оснащений актуальною версією ПЗ, не зупинився перед манекеном зростом близько 1,2 метра, який імітував дитину, що перетинала дорогу перед шкільним автобусом, який зупинився, з миготливими вогнями і виставленим стоп-сигналом, інформує UAINFO.org з посиланням на NV.
На відео від проекту Dawn Project видно, що система впевнено розпізнала манекен як пішохода, але автомобіль продовжив рух без зниження швидкості. Випробування провів інженер і критик Tesla Ден О’Дауд, який уже два роки попереджає про такі ризики.
Tesla FSD 13.2.9 will still run a kid down while illegally blowing past a stopped school bus with red lights flashing and stop sign extended.
Elon Musk how many kids does FSD need to run over before you fix this?
I warned about this danger at the 2023 Super Bowl!
— Dan O'Dowd (@realdanodowd.bsky.social) 28 травня 2025 р. о 17:17
[image or embed]
Особливу тривогу викликає той факт, що 2023 року аналогічна Model Y збила школяра в Північній Кароліні. Тоді потерпілий отримав перелом шиї та ноги. Слідство підозрює, що в момент аварії на машині міг бути активний автопілот або FSD.
Незважаючи на інциденти, Tesla планує запустити невеликий парк роботаксі в Остіні найближчими тижнями. Використовувати будуть звичайні Model Y, обмежуючи рух спрощеними районами міста. Ілон Маск стверджує, що рівень втручань водія на тестах мінімальний і компанія буде ретельно контролювати ситуацію.
Однак критики наполягають: помилки FSD можуть коштувати людських життів, а тести показують, що програмне забезпечення ще далеке від повної надійності.
Підписуйся на сторінки UAINFO Facebook, Telegram, Twitter, YouTube
Повідомити про помилку - Виділіть орфографічну помилку мишею і натисніть Ctrl + Enter

Сподобався матеріал? Сміливо поділися
ним в соцмережах через ці кнопки