Argumentul dacă Tesla FSD va alerga peste un copil sau un copil fals ratează ideea

A videoclip recent de la TeslaTSLA
-criticul Dan O'Dowd de la „Dawn Project” arată o pistă de probă cu un drum făcut din conuri. Acolo, un șofer care folosește prototipul FSD al Tesla se îndreaptă spre un copil și îl lovește. Se susține că Telsa FSD nu frânează în mod fiabil pentru copii. Criticii lui O'Dowd au susținut că videoclipul a fost fals sau creat prost, iar unii și-au făcut propriile demonstrații, inclusiv, spre supărarea tuturor, făcând testul cu copii „voluntari” reali. Puțini s-au gândit la întrebarea dacă un prototip precum Tesla FSD ar trebui să frâneze fiabil pentru copii, ceea ce este adevărata problemă interesantă.

O'Dowd a scris frecvent că vrea să fie interzis Tesla FSD. Am acoperit campania lui anterior, și a făcut recent o candidatură pentru nominalizarea Senatului California doar pentru a difuza reclame de campanie anti-Tesla FSD. El a stârnit în mod firesc furia lui Elon Musk și a comunității vocale pro-Tesla. Ca atare, a existat sparring imediat. Videoclipul original de mai sus nu arăta FSD activat, deși versiunile ulterioare au arătat că este. Unii au sugerat că imaginile de pe ecran greu de citit spuneau că șoferul ținea pedala apăsată. Alte date arată că mașina încetinește sau emite avertismente, iar argumentele s-au dus și înapoi despre cât de reală este demonstrația.

PUBLICITATE

Demonstrația a fost aleasă pentru a fi provocatoare, deoarece nimic nu este mai înfricoșător decât mașinile care lovesc copiii. 3 copii mor în accidente de mașină în fiecare zi în SUA și în fiecare an aproximativ 170 de copii pietoni sunt uciși de mașini. Pentru mulți, reacția este că nicio tehnologie care ar trece vreodată peste un copil nu este acceptabilă. NHTHT
SA a început o investigație privind implementarea Tesla Autopilot (care este un produs lansat) și începe să se uite la prototipul FSD. Alții, precum Ralph Nader, au făcut, de asemenea, apeluri pentru a scoate prototipul FSD de pe drum. După ce un număr foarte mic de oameni au repetat testul cu copii adevărați, NHTSA a emis un avertisment de a nu face acest lucru, iar Youtube a scos videoclipuri cu oameni care fac acest lucru. Tesla a cerut ca și videoclipurile cu mașina lor lovind manechinul de testare să fie eliminate. The Washington Post relatează că a văzut o scrisoare de încetare și renunțare de la Tesla.

Această problemă este foarte complexă și, așa cum nu este prea neobișnuit, nimeni nu o înțelege exact. Sistemul FSD, deși numit beta, este mai precis numit prototip. În opinia majorității dezvoltatorilor, prototipurile (și beta) cu conducere autonomă au nevoie de cantități mari de teste pe drum și fiecare echipă face acest lucru, „șoferii de siguranță” umani monitorizând sistemul și intervin în mod regulat atunci când comite greșeli pentru a preveni incidentele. Tesla este neobișnuit prin faptul că permite clienților obișnuiți să se implice în această testare, în timp ce toate celelalte companii au angajați, cu un anumit nivel de pregătire îndeplinesc această sarcină și au de obicei 2 angajați per vehicul.

Prototipurile, prin natura lor, eșuează, inclusiv în ceea ce privește lucruri importante precum oprirea pietonilor pe drum. Fiecare echipă, de la cei mai buni precum Waymo până la cei mai răi, au pus pe drum vehicule care ar face în mod regulat ceva foarte rău, cu excepția intervenției.și cei mai mulți consideră că testarea unor astfel de vehicule în stadiu incipient a fost și este încă necesară pentru a face progrese și în cele din urmă a implementa mașinile. Odată implementate, mașinile vor fi de o calitate mult mai bună și vor salva vieți - multe dintre ele - așa că toată lumea vrea ca această implementare să aibă loc cât mai curând posibil, dar sunt multe probleme de discutat despre cum ajungem în acel punct și când am ajuns. aceasta.

PUBLICITATE

Asistență pentru șofer vs. auto-conducere

Pe lângă întrebarea dacă utilizarea de către Tesla a clienților pentru a-și testa prototipul este o idee bună, multe probleme gravitează în jurul diferenței dintre sistemele de asistență a șoferului, care implică un om complet implicat în conducere, dar supravegherea sistemului, mai degrabă decât mișcarea fizică. comenzile și sistemele de conducere autonomă, unde nu este necesară supravegherea umană (și într-adevăr, vehiculul poate rula fără nimeni în el.)

Mulți oameni din industrie consideră că acestea sunt două lucruri destul de diferite și că a fost o eroare pentru NHTSA să le declare ca fiind doar două „niveluri” diferite de tehnologie de automatizare. Sterling Anderson, co-fondatorul Aurora self-driving, crede că trecerea de la asistența șoferului (sau ADAS, pentru asistență avansată a șoferului) la auto-conducerea este ca și cum ai încerca să ajungi pe Lună construind scări mai înalte.

Primul sistem avansat de asistență a șoferului care permitea unei persoane să-și ia picioarele de pe pedale a fost controlul vitezei de croazieră, în special controlul adaptiv al vitezei de croazieră. Mai târziu, a sosit și menținerea benzii care vă permite să vă luați mâinile de pe volan, iar în curând cele două au fost combinate în produse precum „Autopilot” Tesla. Ca instrumente ADAS (asistență la șofer), acestea sunt menite să fie utilizate cu toată atenția.

PUBLICITATE

Deși nu toată lumea a crezut asta la început, concluzia generală astăzi este că aceste sisteme funcționează și nu creează un pericol pe drum. Oamenii se îndoiau chiar și de controlul de croazieră de bază la început, dar în curând a devenit o caracteristică foarte comună pe mașini.

Tesla Autopilot a ridicat noi întrebări din mai multe motive, dar cea mai interesantă problemă se învârte în jurul faptului că este în mod clar superioară ca funcționalitate față de produsele anterioare, inclusiv controale de croazieră mai simple - totuși, acea superioritate ar putea face de fapt mai periculos și, prin urmare, inferior. Apare un paradox ciudat, în cazul în care cu cât sistemul este mai bun, cu atât rezultatul poate fi mai rău, deoarece sistemul superior induce o „mulțumire a automatizării” în care șoferul supraveghetor acordă mai puțină atenție drumului. (Unii cred, de asemenea, că denumirile „Autopilot” și FSD ale Tesla încurajează această mulțumire, iar mesajele publice despre aceste produse o fac și ele.)

Acesta nu este un paradox bun. Vrem să dezvoltăm sisteme mai bune, dar dacă un sistem se înrăutățește în general pe măsură ce îl îmbunătățești, este mult mai greu să obții sisteme cu adevărat bune pe măsură ce călătorești printr-o vale a pericolului unde lucrurile se înrăutățesc înainte de a se îmbunătăți. Astăzi, nu am reproșa niciodată un control de croazieră standard pentru faptul că va lovi un copil sau va sufla printr-o lumină roșie - acele sisteme erau mult mai simple și nu aveau deloc capacitatea de a evita aceste greșeli. Dar mulți vor să reproșeze sistemul mult superior, care se oprește pentru majoritatea obstacolelor, deoarece nu se oprește 100% - chiar dacă niciun sistem nu va fi vreodată atât de perfect încât să evite 100% dintre erori și, deși nici oamenii nu vor fi perfecti.

PUBLICITATE

Am participat la elaborarea primelor legi de testare a conducerii autonome din lume, în Nevada și California. Jucătorii au fost de acord că ar trebui să existe niște reguli de bază despre cum să facă testarea pe drumuri (regulile anterioare nu interziceau acest lucru, deoarece, desigur, nimeni nu s-a gândit vreodată să facă acest lucru.) În același timp, producătorii auto, care vând instrumente ADAS, au făcut nu doresc ca mașinile lor ADAS să fie supuse reglementărilor privind testele de conducere autonomă, așa că funcționarea ADAS a fost definită ca nerespectată de acele reglementări.

În California, în special, acest lucru a creat o întrebare deschisă. Toate testele de conducere autonomă (cu câteva excepții recente) sunt efectuate cu un șofer de siguranță care supraveghează. În acest fel, seamănă foarte mult la conducerea unei mașini ADAS. Legea nu a fost clară cu privire la distincția care a creat unele situații interesante. Anthony Levandowski, care a participat și la elaborarea regulamentului, a fost ulterior șef al UberUBER
ATG. El a declarat că, din moment ce toate mașinile lor la acea vreme funcționau doar cu un șofer de siguranță, acesta era ADAS, iar Uber nu trebuia să respecte reglementările de testare a conducerii autonome. DMV din California a spus nu, că în această logică nimeni nu a testat conducerea autonomă și nu aceasta a fost intenția legii. Ei i-au spus Uber că trebuie să se înregistreze ca vehicule de testare autonome, sau vor trage plăcuțele de înmatriculare ale mașinilor Uber folosind puterile lor speciale. Uber s-a conformat.

PUBLICITATE

DMV a adoptat abordarea conform căreia, dacă încercați să realizați un sistem de conducere autonomă, deși era unul incomplet incomplet care avea nevoie de supraveghere și era întotdeauna supravegheat, ar trebui să fiți considerat o companie de testare a conducerii autonome guvernată de reguli.

În ciuda acestui fapt, Tesla continuă aceeași abordare. Întrucât Tesla are cu siguranță un produs ADAS, nu raportează niciodată statului că au făcut vreo testare de conducere autonomă. Până acum, DMV a lăsat acest lucru să alunece – chiar și testarea Tesla FSD de către angajații Tesla, care este foarte greu de distins de ceea ce au oprit-o pe Uber să facă. DMV ar putea reglementa acest lucru. Dar cum rămâne cu utilizarea clienților, unde este oficial (dacă citiți literele mici și ignorați numele) un instrument de asistență pentru șofer?

Dar se pare că funcționează

Principala soluție pentru aceasta a fost modalitățile de a asigura că atenția de supraveghere rămâne ridicată. Există diverse tehnici pentru aceasta, inclusiv monitorizarea șoferului în diverse moduri și sâcâitul dacă nu sunt atenți sau, după cum s-a menționat, să aibă șoferi profesioniști pregătiți sau chiar o echipă a acestora cu mai mulți ochi pe drum. Timp de multe decenii, am instruit șoferi adolescenți în școlile de șoferi, având un instructor care poate să apuce volanul și să aibă propria frână pentru a opri mașina, iar acel sistem a funcționat foarte bine.

PUBLICITATE

Concluzia puternică de până acum este că aceasta funcționează. Dosarul de siguranță al marilor companii de conducere autonomă precum Waymo este exemplar. Waymo a raportat peste 20 de milioane de mile de testare cu șoferii de siguranță în 2021 și, în acel timp, a avut probabil 2 accidente de vină. Ființele umane, în medie, vor avea mai aproape de 40 de accidente în acea perioadă de timp. Așa cum studenții de conducere cu instructori auto se descurcă mult mai bine decât șoferii proaspăt autorizați, sistemul de monitorizare funcționează în mod clar, iar aceste vehicule creează, de fapt, mai puține riscuri pentru public decât ar fi condus similar de către oamenii obișnuiți.

Cel puțin în SUA, dacă nimeni nu este rănit – sau cel puțin dacă nivelul de risc este mai mic decât cel al conducerii obișnuite – o activitate nu ar fi, în general, reglementată. Abordarea SUA este mult mai permisivă - nu trebuie să dovediți că ceea ce faceți este sigur, dar dacă se dovedește a fi nesigur, puteți fi oprit și găsit răspunzător pentru orice prejudiciu pe care l-ați provocat. Alte țări ar solicita autorităților de reglementare să decidă în prealabil dacă ceva este sigur, o bară mult mai ridicată, care este mult mai puțin favorabilă inovației.

Desigur, într-un caz celebru, abordarea șoferului de siguranță a avut o fatalitate, când vehiculul Uber ATG a ucis un pieton în Arizona. Ancheta NTSB și cazurile ulterioare judiciare au constatat că șoferul de siguranță a fost neglijent (se uita la televizor în loc să-și facă treaba), deși Uber a fost de asemenea vinovat pentru că are o cultură slabă de gestionare a șoferilor de siguranță, ceea ce a contribuit la această eroare. Concluzia importantă este însă că sistemul de siguranță al șoferului funcționează și nu pune publicul în pericol nejustificat, deși este evident posibil ca șoferii pentru siguranța umană să fie neglijenți și să prezinte un risc ridicat.

PUBLICITATE

Acesta este sistemul cu șoferi plătiți instruiți. Tesla merge mai departe și pune clienții obișnuiți să facă treaba. Au existat o serie de incidente în care șoferii Tesla au fost în mod clar neglijenți în supravegherea produsului Autopilot și au avut loc accidente, inclusiv mortale. Cu toate acestea, mașinile Tesla parcurg mult mai multe kilometri cu Autopilot decât o face orice echipă care conduce singur, așa că prezența unor evenimente negative și chiar tragice nu este neapărat o dovadă că sistemul expune publicul la riscuri mai mari.

În fiecare trimestru, Tesla publică statistici înșelătoare care afirmă că șoferii care folosesc Autopilot au înregistrări de siguranță mai bune decât cei care nu o fac, chiar dacă unii utilizatori Autopilot sunt neglijenți. În timp ce aceste cifre echivalează cu o minciună, Eu și alții am încercat să facem inginerie inversă a numerelor reale, iar cifrele reale nu sunt chiar atât de rele și sugerează că utilizatorii Autopilot au un record de siguranță similar cu cel al celor care nu sunt utilizatori. Deși nu este superior, nici nu expune oamenii la riscuri suplimentare. Rezultatul este suficient de apropiat încât NHTSA efectuează o investigație privind accidentele Tesla cu vehicule de urgență. Nu se știe dacă vor adopta o abordare de precauție sau vor analiza situația generală de siguranță.

Mulți au sugerat că Tesla și-ar putea îmbunătăți recordul cu o monitorizare mai bună a șoferului. Monitorizarea standard cere pur și simplu șoferului să aplice regulat forță asupra roții. Alte companii au camere care urmăresc ochii șoferului pentru a se asigura că urmăresc drumul - dacă Uber ATG ar fi făcut acest lucru, ar fi prevenit moartea acestora. Tesla a început recent să folosească și monitorizarea privirii șoferului.

PUBLICITATE

Trebuie remarcat faptul că calculul care arată siguranța Tesla Autopilot ca fiind similară cu conducerea obișnuită este unul utilitar. Este de fapt combinația dintre o rată mai mare a accidentelor în rândul unui mic grup de utilizatori neglijenți ai Autopilot care ignoră drumul sau intră în automulțumirea automatizării și un record de siguranță mai bun din partea celor care sunt sârguincioși. Avem o perioadă dificilă din punct de vedere filosofic cu asta - nu ne place să facem unii oameni să aibă un risc mai mare, chiar dacă mai mulți oameni au un risc mai mic. Nu ne place atât de mult încât am putea priva oamenii harnici de un instrument care îi face mai siguri pentru a-i proteja pe cei care sunt neglijenți, deși acesta nu este scopul nostru.

Ce zici de FSD

Datele de mai sus se referă la Autopilot, care este un produs de expediere. Tesla FSD nu este un produs de expediere. Ei îl numesc „beta” (care este un produs aproape finalizat în ultima fază de testare înainte de lansare), dar nu este deloc așa. Acum au peste 100,000 de proprietari de Tesla care îl încearcă. Pentru a-l folosi, proprietarul trebuie să plătească o taxă (care se ridică acum la 15,000 USD) pentru a precomanda eventualul sistem FSD și să treacă un fel de test de conducere în siguranță pentru a fi admis în grupul de testare. Testul de conducere în siguranță este în mare parte fals și nu testează ceea ce ți-ai dori de fapt pentru această sarcină, dar înseamnă că nu îl primesc toți cei care plătesc.

Ei avertizează șoferii că sistemul a avut multe erori și are nevoie de supraveghere constantă, cum ar fi ADAS, spunând: „Va face lucrul greșit în cel mai rău moment”. Aceasta este o afirmație destul de clară, dar, în același timp, denumirea „conducere autonomă completă” evocă în mod evident o imagine diferită de ADAS. Am condus cu acest sistem și am considerat performanța acestuia a fi destul de slabă ca sistem de conducere autonomă.

PUBLICITATE

Chiar și așa, în ciuda intuițiilor contrare, abordarea lui Tesla pare să funcționeze. Cu 100,000 de șoferi, sistemul este în funcțiune de milioane de mile (deși nu există date publice despre cât de mult folosește sistemul fiecare șofer.) De asemenea, știm că există o mare atenție publică asupra oricăror accidente care implică testarea FSD. sistem și doar un număr mic de incidente minore au devenit publice. În timp ce unii testeri Tesla FSD sunt atât de mari fani Tesla încât ar putea ascunde un accident pe care l-au avut, este extrem de puțin probabil ca un număr semnificativ de accidente majore să aibă loc, fără a fi dezvăluit niciunul. Orice poliție gravă a raportat accidente, în special accidente cu răni, ar fi foarte probabil să atragă atenția, așa cum o face pentru Autopilot.

Și totuși nu le vedem. Deși aceasta nu este o analiză științifică adevărată, se pare că programul FSD al Tesla nu pune în prezent publicul în pericol. Acest lucru ar putea fi atribuit cât de prost este sistemul. Majoritatea șoferilor știu că ar fi cu adevărat stupid să nu acorde atenție acestui sistem în starea sa actuală. Este posibil ca, pe măsură ce se îmbunătățește, acest lucru să se schimbe. Dacă luați în considerare controlul de viteză de bază, care este mult mai primitiv, acesta funcționează pentru că nimeni nu ar îndrăzni să nu acorde atenție drumului în timp ce îl folosește.

PUBLICITATE

Numele lui Tesla

Tesla nu se ajută singur cu numele produselor sale. Mulți au criticat numele Autopilot, deoarece percepția (falsă) publică este că autopiloții aeronavelor zboară singuri avionul. De fapt, pilotul automat al unei aeronave este un sistem mult, mult mai simplu decât pilotul automat al mașinii Tesla și funcționează doar pentru că, în aer, ești foarte departe de orice ai putea lovi. Totuși, asta nu oprește percepția publică falsă. Cu FSD, este și mai rău. Nu este încă la nivelul de conducere autonomă, nici măcar aproape și cu siguranță nu este „plin”. Această confuzie l-a determinat pe Waymo să renunțe la utilizarea termenului de conducere autonomă pentru a-și descrie produsul, de teamă că Tesla ar fi definit greșit termenul în mintea publicului.

Tesla nu are nevoie de mai mult hype pentru produsele lor. Ei vând tot ce pot face. Este surprinzător faptul că aceștia merg în mod deliberat cu aceste nume, mai degrabă decât subestimarea și exagerarea. Ei s-ar scuti de multă durere – în afară de cea de tipul „toată publicitatea este o bună publicitate”.

Deci, este în regulă dacă o Tesla va lovi un manechin de mărimea unui copil?

Răspunsul surprinzător este „probabil”. Toate sistemele de prototipuri de testare vor face astfel de lucruri și, în afară de a interzice orice testare a prototipurilor, nu există nicio modalitate de a cere perfecțiunea chiar și pentru o problemă atât de evocatoare precum accidentele cu copiii. Este dificil să se creeze un regim de reglementare care să interzică Tesla FSD, care să nu interzică și să nu încetinească dezvoltarea unei tehnologii foarte importante care, în timp, vor salva milioane de vieți. Milioane de vieți nu sunt puține lucruri, va fi una dintre cele mai mari progrese în materie de siguranță din istoria omenirii.

PUBLICITATE

Cel mult, am putea încerca să definim lucrurile astfel încât cei care supraveghează astfel de sisteme de testare să îndeplinească anumite criterii. Am putea insista să obțină o monitorizare mai bună (ceea ce Tesla o face). Am putea cere să fie profesioniști sau să treacă un test, dar apoi am crea un organism care să definească și să impună aceste teste, ceea ce ar fi greoi. Poți deveni instructor auto doar trecând un test scris și obținând un certificat de bună sănătate, nu se face niciun test de îndemânare în direct.

Cu toate acestea, am putea defini un set de reguli pentru cine poate supraveghea un sistem prototip și ar putea opri activitatea Tesla. Dar a face acest lucru ar însemna să cădem în paradoxul „cu cât este mai bine, cu atât nu ne place mai mult”. Nu vrem să facem mai greu să traversăm acea vale pentru a deveni un sistem mai bun. Întrebarea adevărată este de ce am dori să mergem chiar acolo dacă nimeni nu este rănit. În acest moment, nu există rapoarte despre oameni răniți, cu siguranță nu la niciun nivel care ar indica că există mai mult risc decât cel de la conducerea obișnuită. Nu vrem să cădem în capcana interzicerii lucrurilor pentru că avem intuiția că sunt periculoase. Vrem doar să interzicem lucrurile care sunt de fapt periculoase.

Este foarte posibil ca testarea Tesla FSD să înceapă ulterior să fie prea periculoasă. Acest lucru se poate întâmpla din cauza mulțumirii automatizării sau a modificărilor sistemului. Este rezonabil ca Tesla să fie rugată să raporteze autorităților câte incidente au loc în timpul testării sistemului, astfel încât să putem ști dacă și când devine periculos. Abordarea lui O'Dowd de „ar trebui să interzicem asta pentru că mi se pare că ar fi periculos” este greșită, cel puțin în SUA.

PUBLICITATE

Citiți și lăsați comentarii aici

Sursa: https://www.forbes.com/sites/bradtempleton/2022/08/25/the-argument-over-whether-tesla-fsd-will-run-over-a-child-or-dummy-child- greseste punctul/