Anmelden

Archiv verlassen und diese Seite im Standarddesign anzeigen : Die Zukunft des Verkehrs - Autonomes Fahren - der Diskussionsthread


Seiten : 1 2 3 4 5 6 7 8 [9]

Joe
2025-02-24, 17:02:04
13.2.8

Fast am Ziel.

3V7p3f6u5M0

Trap
2025-02-25, 12:02:09
Gibt jetzt erste Livestreams aus China:
https://x.com/shrmodelx/status/1894308019976245544

Macht sich nicht schlecht dafür, dass es die erste Version dort ist. Ist aber noch nicht so gut wie in Nordamerika in Bezug auf Spuren und zulässige Spurwechsel.

Voodoo6000
2025-03-17, 10:33:41
Es sind vielleicht keine besonders realistischen Szenarien, aber Teslas Camera Only Ansatz ist in einigen Szenarien problematisch.

IQJL3htsDyQ

MasterElwood
2025-03-17, 11:15:09
Es sind vielleicht keine besonders realistischen Szenarien, aber Teslas Camera Only Ansatz ist in einigen Szenarien problematisch.

https://youtu.be/IQJL3htsDyQ

Nicht bei FSD. Bei FSD würde das System - wie ein Mensch auch - die Geschwindigkeit an die Situation anpassen = nicht mit voller Kanne in nebeliger Umgebung ect. Fahren. Damit käme auch der Tesla auf 5 geschaffte nicht nur auf 3.

Die aufgemalte Wand würde FSD wahrscheinlich niedermähen - das ist jedoch eine Trainingssache und keine technische Limitierung von Kameras. Es sollte auch für HW3 Kameras kein Problem sein so einen offensichtlichen Rand zu erkennen - muss halt drauf trainiert werden.

Generell muss man natürlich sagen dass das ganze offensichtlich verstecktes Werbevideo für Marks Kumpel mit dem tragbaren LIDAR ist - desswegen auch die ganze Disneyland Sache und auch schön passen der Link zum LIDARMANN in der Video Beschreibung - und natürlich wird LIDAR generell als allkönnend dargestellt.

Ich mag Mark normalerweise - aber hier hat er das Publikum schon dreist angelogen um sein LIDAR als Gottesgeschenk darzustellen.

Beispiel: "Niemand hat bis jetzt gewusst wie Space mountain im Inneren aussieht" - obwohl es dutzende Ride Videos mit Lichter an gibt, Bücher über Disneyland mit den Space mountain Blueprints, Modelle zum kaufen usw....

Echt schade. Der Typ hat am Marsrover mitgeschraubt und ist einer der bekanntesten Youtuber überhaupt. Der hat sowas garnicht nötig...

TheCounter
2025-03-17, 13:06:12
Das Video wurde auf X schon auseinander genommen. Teilweise war der Autopilot gar nicht aktiviert. Ist wohl ein Sponsored Video.

Schade, eigentlich hatte ich Mark für einen coolen Typen mit Köpfchen gehalten, aber das Video ist übelst schlecht.

Der Post von Whole Mars trifft es ganz gut:

Mark Rober: Should we show how Luminar LIDAR based cars perform much better in dense urban traffic?

Luminar: No, our system can't do that

Mark Rober: Should we show how much better it is than Tesla at driverlessly operating in parking lots

Luminar: No, our system can't do that.

Mark Rober: Well, what is your system better at?

Luminar: Well, you know how in Road Runner Will E. Coyote would always drive into the wall because roadrunner painted a road on it? Well, our system should be able to perform better on that if we compare it to a five year old version of Autopilot. We can't use FSD as the latest occupancy network would probably detect it, just like how a human can see it with their eyes

Mark Rober: Oh yeah, that happens to me all the time. That's much more important to your average driver than those first few ideas I had

Sunrise
2025-03-17, 15:08:58
Es sind vielleicht keine besonders realistischen Szenarien, aber Teslas Camera Only Ansatz ist in einigen Szenarien problematisch.

https://youtu.be/IQJL3htsDyQ
Genau mein Humor

https://i.imgur.com/EIrstaB.png

Joe
2025-03-17, 15:47:19
Es sind vielleicht keine besonders realistischen Szenarien, aber Teslas Camera Only Ansatz ist in einigen Szenarien problematisch.

https://youtu.be/IQJL3htsDyQ

Er macht den Tempomat (nicht FSD) in der letzten Sekunde an und drückt auf Gaspedal. Und dann total verblüfft, wenn das Auto in die Wand knallt ;D;D;D

arcanum
2025-03-17, 17:43:29
Er macht den Tempomat (nicht FSD) in der letzten Sekunde an und drückt auf Gaspedal. Und dann total verblüfft, wenn das Auto in die Wand knallt ;D;D;D

Warum braucht man auch FSD für diesen Test? Der Tempomat ist adaptiv und jedes Auto mit Lidar macht eine Notbremsung weil es das Hindernis erkennt.

TheCounter
2025-03-17, 20:54:59
Er macht den Tempomat (nicht FSD) in der letzten Sekunde an und drückt auf Gaspedal. Und dann total verblüfft, wenn das Auto in die Wand knallt ;D;D;D

Das geile ist, dass er sogar gelogen hat, mit welchem Handy er aufgenommen hat. Er hat per Videobearbeitung aus seinem iPhone ein Google Pixel im gemacht und das G Logo im Landscape Modus darüber gelegt (also falsch herum!) (https://x.com/TailosiveTech/status/1901428796190023977) ;D ;D

Tintenfisch
2025-03-18, 05:50:26
13.2.8

Fast am Ziel.

https://youtu.be/3V7p3f6u5M0

Sagst du das nicht seit 11.1?
Mal schauen was du bei 21.8.3.2 sagst—-> Bald geschafft!?

Gebrechlichkeit
2025-03-18, 17:46:46
A group of Tesla fans inadvertently exposed the company's "shadiness" regarding crashes involving Autopilot. The fans claimed that Autopilot was not active in a crash test video, but the video actually shows Autopilot engaged and disengaging just before the crash. This behavior is consistent with previous reports of Autopilot disengaging within seconds of a crash becoming inevitable. The incident highlights Tesla's inconsistent reporting of ADAS data and potential attempts to create legal confusion in liability lawsuits.

https://i.ibb.co/TB6SSCvb/Snipaste-2025-03-18-17-25-08.png (https://ibb.co/hRbjjq7Z)
https://imgur.com/gallery/3gyDeAp
https://i.ibb.co/Q7QnBLYS/Snipaste-2025-03-18-17-29-37.png (https://ibb.co/fVFtRfr6)
Department of Government Efficiency (DOGE), responsible for the reduction or elimination of certain federal agencies and programs like:

Parts of the U.S. Government Affected by Musk’s Actions

Divisions Investigating Tesla and Elon Musk

Department of Labor - Office of Federal Contract Compliance Programs (OFCCP):
Investigation: The OFCCP was auditing Tesla for potential discriminatory practices at its Fremont, California factory, where workers reported racial abuse and harassment since 2012. The investigation was ongoing as of early 2025, with no public findings released.

Fate: The OFCCP was essentially shut down in January 2025 after Trump’s executive order rescinded its authority. A letter was sent to Tesla and other audited companies stating they no longer had to comply with OFCCP rules, effectively ending the investigation. This aligns with your question about whether the divisions investigating Tesla were "the ones getting the boot"—in this case, yes, the investigating body was eliminated.

Department of Justice (DOJ):
Investigation: The DOJ had expanded probes into Tesla beyond its Autopilot and Full Self-Driving (FSD) systems, looking into personal benefits, related parties, vehicle range claims, and personnel decisions. Subpoenas were issued as early as 2023, suggesting a broad inquiry possibly involving Musk personally.

Fate: As of March 18, 2025, there’s no definitive evidence that these investigations have been terminated, but experts predict they could be halted under Trump’s administration, given Musk’s influence and Trump’s history of intervening in DOJ matters. Reports suggest ongoing probes might "grind to an abrupt end," though no official closure has been confirmed.

National Highway Traffic Safety Administration (NHTSA):
Investigation: Part of the Department of Transportation (DOT), NHTSA was investigating Tesla’s automated driving systems (e.g., Autopilot and FSD) following dozens of crashes, including fatal ones. As of early 2025, it had six active probes and had pressured Tesla into recalls.

Fate: NHTSA remains operational, and there’s no evidence it has been shut down. However, Musk’s influence via DOGE could potentially weaken its regulatory power, though no specific cuts to NHTSA have been detailed as of now.

Equal Employment Opportunity Commission (EEOC):
Investigation: The EEOC, operating under a different department from the OFCCP, sued Tesla in September 2023 for widespread racial harassment of Black employees at its Fremont plant. This case was ongoing as of early 2025.
Fate: The EEOC has not been shut down, and the lawsuit persists, though Musk’s broader influence might pressure such agencies to scale back enforcement.

Securities and Exchange Commission (SEC):
Investigation: The SEC was probing whether Musk and Tesla overstated the autonomous capabilities of their vehicles, alongside earlier settled charges from 2018 over Musk’s tweets. This investigation continued into 2025.

Fate: The SEC remains active, but Musk’s role in DOGE raises concerns about potential conflicts of interest that could soften its stance on his companies.

Federal Aviation Administration (FAA):
Investigation: The FAA, part of the DOT, had fined SpaceX (another Musk company) over $600,000 in 2024 for launch license violations and was involved in regulatory oversight of SpaceX activities.

Fate: The FAA has not been shut down, though Musk has reportedly pushed to redirect contracts to his companies, like Starlink, indicating potential influence over its operations.

Environmental Protection Agency (EPA):
Investigation: The EPA had investigated Tesla for environmental violations, though specifics are less detailed in recent reports.

Fate: The EPA has not been eliminated, but DOGE’s broader cuts could impact its capacity to pursue such cases.

Were These the Ones "Getting the Boot"?
Direct Shutdown: The OFCCP is the clearest example of a division investigating Tesla that was effectively "booted" via its agency’s dissolution in January 2025. This directly halted its audit of Tesla.

Potential Influence: Other agencies like the DOJ, NHTSA, EEOC, SEC, FAA, and EPA continue to exist, but Musk’s DOGE role and Trump’s administration could indirectly suppress or terminate their investigations. For instance, the DOJ and NHTSA probes might be at risk due to Musk’s sway, though no confirmed shutdowns have occurred for these specific divisions as of March 18, 2025.

Broader Context: Musk’s efforts through DOGE aim to slash federal jobs and budgets across multiple agencies (e.g., 100,000 federal workers affected by February 2025), which could weaken the capacity of remaining investigative bodies over time.
Conclusion

The OFCCP within the Department of Labor was explicitly shut down, directly ending its investigation into Tesla. Other divisions investigating Musk and Tesla—such as the DOJ, NHTSA, EEOC, SEC, FAA, and EPA—have not been formally closed, but their efforts could be curtailed or influenced by Musk’s unprecedented role in reshaping the government. The full extent of these changes remains fluid as legal challenges and administrative shifts continue to unfold in 2025.



surs: https://electrek.co/2025/03/17/tesla-fans-exposes-shadiness-defend-autopilot-crash/

TheCounter
2025-03-18, 18:45:51
Selbst wenn, bewegt Mark das Lenkrad, was sowohl FSD als auch den Autopiloten deaktivieren würde (eindeutig im Video oben zu sehen).

Wurde aber alles schon auf X besprochen. Das ganze Video ist eine Farce, von gefälschten Smartphones, über mehrere Versuche mit der Wand etc.

MasterElwood
2025-03-18, 20:36:56
Selbst wenn, bewegt Mark das Lenkrad, was sowohl FSD als auch den Autopiloten deaktivieren würde (eindeutig im Video oben zu sehen).

Wurde aber alles schon auf X besprochen. Das ganze Video ist eine Farce, von gefälschten Smartphones, über mehrere Versuche mit der Wand etc.

PLUS: AP hat mehrfach verweigert sich einzuschalten. Warum wohl... 🙄

[dzp]Viper
2025-03-18, 22:17:32
Selbst wenn, bewegt Mark das Lenkrad, was sowohl FSD als auch den Autopiloten deaktivieren würde (eindeutig im Video oben zu sehen).

Wurde aber alles schon auf X besprochen. Das ganze Video ist eine Farce, von gefälschten Smartphones, über mehrere Versuche mit der Wand etc.
Jup.. aber alle möglichen Medien nehmen das Video schon ungeprüft auf und es verbreitet sich dadurch extrem. Der Schaden ist also enorm selbst wenn das Video "staged" ist.

Gebrechlichkeit
2025-03-19, 00:40:24
Grok sagt folgendes dazu:

Langfassung:
Alright, let’s break this down for an EV forum audience. Mark Rober’s “Can You Fool a Self-Driving Car?” video, where he pits a Tesla Model Y on Autopilot against a LiDAR-equipped Lexus, has stirred up a lot of controversy. The claim is that it’s misleading, and the moment you’re pointing to—where Autopilot disengages about 5 meters before the fake wall—sits at the heart of the confusion. Here’s why people are calling it out, step by step.

First off, the video’s title and framing suggest it’s testing a “self-driving car,” which most viewers would interpret as Tesla’s Full Self-Driving (FSD) system. But Rober uses Autopilot, not FSD. Autopilot is Tesla’s older, more basic driver-assist feature—think advanced cruise control with lane-keeping, not a full autonomous system. FSD, while still supervised, is a more advanced software stack designed to handle complex scenarios. By testing Autopilot instead of FSD, Rober’s already skewing the comparison.

In the YouTube video, Rober engages Autopilot, and the Tesla barrels toward a Wile E. Coyote-style fake wall painted to look like the road. He claims it “smashes through without a tap on the brakes.” But after backlash, he posted “raw footage” on X showing Autopilot disengaging 17 frames (less than a second at typical video frame rates) before impact, at around 42 mph. Critics zoomed in on this. If Autopilot was on, why did it turn off so close to the wall?

One theory is that Rober nudged the steering wheel, which disengages Autopilot if it detects driver input. Tesla’s system requires hands on the wheel and can deactivate if it senses resistance or intentional steering. Problem is, the footage doesn’t clearly show his hands or feet, so we can’t confirm if he tensed up and jerked the wheel, as some suggest, or if he manually overrode it.

Here’s where it gets messier. Tesla owners and engineers on forums like X have pointed out that Autopilot (and even FSD) has a known quirk: it can disengage just before a crash (added to the phantom breaking issues). This isn’t new—NHTSA investigations from 2022 found Autopilot aborted control less than a second before impact in several incidents involving stationary objects.

Some argue this is a liability dodge by Tesla, but it’s also possible the system detected an anomaly (like the wall) too late to brake effectively, so it handed control back to the driver (yes, that´s a good idea > hand over the control to the human with even less time to reaction 2m before crashing!).

At 40-42 mph, 5 meters is about 0.3 seconds of travel time—way too short for human reaction or meaningful braking, especially if Rober wasn’t expecting it. So, even if Autopilot was engaged until that point, its disengagement could mean it failed to “see” the wall in time, or it saw it but couldn’t respond, which still looks bad for Tesla’s camera-only approach.

But let’s zoom out. The test itself is questionable. A fake wall isn’t a real-world scenario—human drivers wouldn’t face this outside a cartoon.(LOL) Rober’s other tests (fog, heavy rain) also pushed extremes where even humans might struggle, yet he frames Tesla’s failures as a fatal flaw.

Meanwhile, the LiDAR-equipped Lexus, backed by Luminar (whose branding is all over the video), aces every test. This raises red flags about bias. Luminar’s a LiDAR company with a vested interest in dunking on Tesla’s camera-only “Tesla Vision” strategy. Rober says it wasn’t paid promotion, but Luminar linked the video on their site (later removed), and their employees were involved. It smells like a stealth ad, which Rober doesn’t disclose upfront, adding to the “misleading” charge.

Then there’s the execution. Screenshots from the video show no blue lines or “rainbow road” (visual cues Autopilot is active) in the final moments before impact, suggesting it might’ve been off earlier than claimed. The “raw footage” speed jumps from 40 mph in the YouTube cut to 42 mph, hinting at multiple takes—did he juice the drama? Critics argue if he wanted a legit test, he’d use FSD, hands-off, with clear documentation of engagement status. Instead, it feels staged for a viral crash.

So, why’s it misleading? It oversells a basic system (Autopilot) as Tesla’s best self-driving tech, tests it in an unfair, theatrical setup, and obscures key details—like why it disengaged—while subtly shilling for LiDAR. The steering wheel debate? It’s a symptom of sloppy transparency. Whether Rober touched it or not, the video doesn’t prove Tesla’s cameras failed as much as it proves the test was rigged to make them look bad. For EV fans, it’s a lesson: cool experiments don’t always equal good science. Thoughts?

Kurzfassung:
Mark Rober's video, "Can You Fool a Self-Driving Car?", which contrasts Tesla's Model Y Autopilot with a LiDAR-equipped Lexus, has sparked significant debate due to perceived misleading elements. A crucial point of contention arises from Rober’s choice to test Autopilot—a simpler driver-assist feature—rather than Tesla's Full Self-Driving (FSD) system, leading to accusations of skewed comparisons. The video depicts a scenario where the Tesla seemingly fails to brake before hitting a fake wall, with Rober initially implying the Autopilot operates without intervention. However, subsequent footage reveals that the system disengaged mere moments before the impact, raising questions about whether Rober manually interfered with the controls.

Critics point out that Tesla's Autopilot can disengage just before a crash, which has been substantiated by previous investigations into the system’s performance. Rober's experiment, utilizing a cartoon-like obstacle, is seen as impractical in real-world driving conditions, and criticisms have surfaced regarding the bias involved in the test—especially since the Lexus was backed by Luminar, a LiDAR company with interests in discrediting Tesla's camera-based approach. Furthermore, inconsistencies in the video, such as a lack of indicators showing Autopilot was engaged and discrepancies in recorded speeds, suggest the potential for staging the experiment for dramatic effect.

Ultimately, the video raises essential discussions about the transparency and legitimacy of such tests. While it aims to question Tesla's technology, it may inadvertently serve more as an entertainment piece rather than a scientific evaluation, highlighting how compelling experiments do not always equate to sound methodology in assessing advanced vehicle technologies.

Nix neues, Tesla Schlitten haben seit 2011? immernoch Probleme mit Phantom Breaking (HW1) und davor (HW0) war´s noch regenreative breaking. Das hat man bis heute nicht rauspatchen, fixen koennen oder wollen. Dass das Video angeblich von den anderen "gesponsert" war, ... naja was soll dazu noch sagen. War es fair? Nein, aber die WehWehchen wurde seit 2008 nicht behoben, das sagt vieles ueber die Firma. Wer damit einverstanden ist, durch Eingriff des Systems, auf die andere Fahrbahn gepusht zu werden ... bloss weil ein toter Coyotte die eigene Fahrbahn blockiert, dann nur zu. :freak:

Es spielen weitaus andere Faktoren fuer den Kauf oder nicht eines Wagens. Hier stinkt Tesla gewaltig ab im Vergleich zu den anderen Hersteller. Bis auf die eigene Lade-Infrastruktur bzw. "Plug-In" ... there is nothing left to highlight (positively).

The closest you’d get might be occasional regenerative braking oddities—some early owners noted regen kicking in harder than expected due to software tuning, but that’s a far cry from Autopilot slamming the brakes for a ghost obstacle.

MasterElwood
2025-03-19, 20:19:35
https://youtu.be/QhX_fgekpk0?si=MTwTibw5h3YTPENu

Exposing Mark Robert's Tesla Crash Story

Trap
2025-03-19, 21:19:34
Ich find die Videos aus China deutlich spannender als das engagement bait von Mark Rober.

Länger am Stück: https://x.com/boolusilan/status/1902099768266125748
Water cup challenge: https://x.com/boolusilan/status/1900797478414221691
Sehr schmale Feldwege: https://x.com/boolusilan/status/1901526332158443624
Nicht mal ein Feldweg: https://x.com/DriveGreen80167/status/1901998544258555928

[dzp]Viper
2025-03-20, 23:53:02
So natürlich hat das jetzt jemand nachgestellt und mit FSD v12 und FSD v13 getestet

Zusammenfassung
FSD v12 erkennt die Mauer nicht
FSD v13 erkennt die Mauer und bremst ohne Probleme davor ab.

9KyIWpAevNs

registrierter Gast
2025-03-21, 00:30:04
Wie in den Kommentaren angemerkt, könnte es auch an der HW4 des Cybertrucks liegen oder an der untergehenden Sonne und dem sich daraus ergebenden höheren Kontrast aus Bild und dem Umgebungslicht.

BUG
2025-03-21, 22:23:54
Gibt wohl ein Dokument, dass Tesla im Moment versucht, eine EU-Weite Zulassung / Genehmigung für FSD (Supervised) zu erlangen.

https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=92237

https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=92238

https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=92239

https://x.com/KRoelandschap/status/1903102303269425459

Joe
2025-03-27, 00:21:23
Tesla FSD 13.2.8 9,5 Stunden knapp 1000km ohne Eingriff.

6Ijwr63fGu8

registrierter Gast
2025-03-29, 13:14:47
Hier gibt's einen weiteren, aktuellen Road Runner Tesla Test.
Dieses mal ein Vergleich mit Hardware 4 vs Hardware 3. Mehrere Wiederholungen unter gleichen Testbedingungen.

TzZhIsGFL6g

Hardware 4 bemerkt das Hindernis. Hardware 3 nicht.

Joe
2025-03-29, 14:32:30
Würde mich nicht festnageln, dass es an HW3 vs HW4 liegt. Könnte auch FSD12 vs FSD13 sein.

arcanum
2025-03-29, 14:44:06
Irrelevant. Unsupervised wird wahrscheinlich erst ab AI 5 oder später möglich sein während HW 3 bereits obsolete ist und HW 4 wahrscheinlich auch (die Ankündigung folgt wahrscheinlich sobald die ersten AI 5 Fahrzeuge ausgeliefert wurden). Damit hat Tesla Stand heute genau 0 Fahrzeuge auf den Straßen die autonom fahren können.

Sardaukar.nsn
2025-03-29, 16:31:03
Tesla streicht FSD und darf nicht mehr für das Produkt werben, das es gar nicht gibt

https://www.smartdroid.de/tesla-streicht-fsd-und-darf-nicht-mehr-fuer-das-produkt-werben-das-es-gar-nicht-gibt/#google_vignette

Tesla ist mit FSD nicht ehrlich, schon seit Jahren wird Kunden diesbezüglich etwas vorgegaukelt, was Tesla eigentlich noch gar nicht bieten kann. Denn bis heute gibt es kein Full Self Driving, was zu Konsequenzen in China führt.

[MK2]Mythos
2025-03-29, 16:55:20
Finds witzig wie ich nach meiner umfangreichen Erfahrung mit Tesla schon vor 5 Jahren schilderte dass ich massiv bezweifle dass autonomes Fahren mit HW2 möglich ist und es dafür sicherlich noch 2-3 Hardware Upgrades geben wird und ich dafür von der bekannten Teslafraktion hierangegangen wurde und FSD quasi right around the corner ist.
5 Jahre später. HW4 ist längst da und echtes autonomes Fahren natürlich immer noch nicht. ;D

Joe
2025-03-29, 20:25:27
Ich finds witzig, dass Consumer Protection in China da besser ist als in der EU ;D;D;D

anorakker
2025-03-29, 20:46:39
Finds witzig dass Leute für ein nicht funktionierendes Feature jemals Geld ausgegeben haben und damit ausser Tesla die Entwicklung zu zahlen nichts bekommen haben ;D

MasterElwood
2025-03-31, 01:37:07
Finds witzig dass Leute für ein nicht funktionierendes Feature jemals Geld ausgegeben haben und damit ausser Tesla die Entwicklung zu zahlen nichts bekommen haben ;D

FSD hat auch hier und jetzt schon Funktionen die der normale AP oder EAP nicht haben.

MasterElwood
2025-03-31, 01:39:57
Irrelevant. Unsupervised wird wahrscheinlich erst ab AI 5 oder später möglich sein während HW 3 bereits obsolete ist und HW 4 wahrscheinlich auch (die Ankündigung folgt wahrscheinlich sobald die ersten AI 5 Fahrzeuge ausgeliefert wurden). Damit hat Tesla Stand heute genau 0 Fahrzeuge auf den Straßen die autonom fahren können.

Das ist eine reine Erfindung von dir. Raten kann man alles - aber stell es nicht als Tatsache hin.

MasterElwood
2025-03-31, 01:42:10
Ich finds witzig, dass Consumer Protection in China da besser ist als in der EU ;D;D;D

Der chinesischen Regierung sind Konsumer scheiß egal 😂

Da wird das eigene Produkt geschützt...

/dev/NULL
2025-04-01, 11:37:41
Tesla machts vor, die Chinesen nach:
https://www.spiegel.de/auto/xiaomi-chinesisches-unternehmen-will-nach-toedlichem-unfall-nach-fahrassistent-alarm-mit-polizei-kooperieren-a-f07eba02-d60d-4557-b0a7-62bfe676992e

-> In Baustelle gefahren, ausgebrannt, möglicherweise gingen die Türen nicht auf.

R300
2025-04-01, 15:36:23
FSD hat auch hier und jetzt schon Funktionen die der normale AP oder EAP nicht haben.

Das Preis-Leistungs-Verhältnis ist aber schon ziemlich mau.
Ich würde FSD erst kaufen, wenn es hier auch funktioniert.

Sardaukar.nsn
2025-04-01, 15:52:01
Tragische Sache. Immerhin wohl gut dokumentiert. https://carnewschina.com/2025/04/01/first-fatal-accident-involving-xiaomi-su7-claims-three-lives-on-chinese-highway/

The company’s detailed timeline of the incident reveals several notable events leading up to the crash:

10:27:17 PM: NOA activated, vehicle speed at 116 km/h
10:28:17 PM: Mild distraction warning issued
10:36:48 PM: NOA issued hands-off warning: “Please hold the steering wheel”
10:44:24 PM: NOA issued risk warning: “Please note obstacle ahead,” with deceleration request
10:44:25 PM: Driver took over from NOA, entering manual driving mode, steering wheel turned 22.0625 degrees left, brake pedal pressed 31%
10:44:26 PM: Steering wheel turned 1.0625 degrees right, brake pedal pressed 38%
Between 10:44:26–28: Vehicle collided with concrete barrier
10:44:28 PM: Vehicle eCall triggered
10:44:39 PM: eCall connected, accident confirmed, police and emergency services contacted
10:45:06 PM: Contact established with vehicle owner, confirming non-owner was driving
10:47:15 PM: Emergency medical services successfully dispatched
Approximately 11:00 PM: Emergency services arrived at the scene

Xiaomi stated that a special investigation team was formed immediately after the accident and traveled to Tongling on March 30 to cooperate with police authorities. The company has pledged to assist the victims’ families and maintain transparency throughout the investigation.

MasterElwood
2025-04-01, 15:54:42
Das Preis-Leistungs-Verhältnis ist aber schon ziemlich mau.
Ich würde FSD erst kaufen, wenn es hier auch funktioniert.

Macht Sinn. Das Problem ist: als FSD in den US für alle kam, hat sich der Preis quasi von heute auf morgen verdoppelt. Die Leute die es heute schon kaufen, wollen sich das eben ersparen.

MasterElwood
2025-04-01, 15:57:43
Xiaomi: 2 Sekunden von erster Warnung bis Einschlag. Die Armen hatten keine Chance...

Filp
2025-04-01, 18:13:11
Xiaomi: 2 Sekunden von erster Warnung bis Einschlag. Die Armen hatten keine Chance...
In 2 Sekunden hast du bei der Geschwindigkeit fast 65m zurückgelegt, also viel früher kann die Warnung ja gar nicht kommen, wenn da ein plötzliches Hindernis auf der Strecke ist.
Aber 8 Minuten lang die Warnung ignorieren, dass man die Hände ans Lenkrad bewegen soll, ist halt auch ne Leistung... Richtig gebremst haben sie auch nicht.

MasterElwood
2025-04-01, 19:15:19
In 2 Sekunden hast du bei der Geschwindigkeit fast 65m zurückgelegt, also viel früher kann die Warnung ja gar nicht kommen, wenn da ein plötzliches Hindernis auf der Strecke ist.


collided with concrete barrier

Betonwand is plötzlich aufgetaucht? 😂

Filp
2025-04-01, 20:11:31
collided with concrete barrier

Betonwand is plötzlich aufgetaucht? 😂
Es war eine Baustelle und der Verkehr wurde auf die Gegenfahrbahn umgeleitet, also ja, die steht auf der Spur und taucht plötzlich auf.

Joe
2025-04-01, 20:46:17
Ich versteh nicht warum hier im "Autonomes Fahren" Fred schon wieder über mittelmäßige Driver Assist Systeme diskutiert wird, die überhaupt nichts mit Autonomie zu tun haben.

/dev/NULL
2025-04-01, 21:24:12
Wir reden doch garnicht über FSD (Supervised) in Deutschland..

BUG
2025-04-05, 21:16:49
FSD Supervised in Europe, pending regulatory approval
https://x.com/teslaeurope/status/1908573920296415451

Da fährt wohl ein Safety Driver mit der FSD Beta Supervised in NL.

TheCounter
2025-04-05, 22:35:25
Alter, was ist das für ein Horror-Szenario? Dort hätte ich mal absolut keinen Bock selbst Auto zu fahren...

Respekt, dass FSD das in dem Video so "locker" macht. Wäre nix für mich, viel zu viele Radfahrer und beschissenes Straßenlayout :ugly:

Joe
2025-04-05, 22:38:58
FSD Supervised in Europe, pending regulatory approval
https://x.com/teslaeurope/status/1908573920296415451

Da fährt wohl ein Safety Driver mit der FSD Beta Supervised in NL.

Das das System hier funktioniert ist ja schon seit Jahren klar und weder was neues noch was besonderes.

Fliwatut
2025-04-05, 22:43:13
Wäre nix für mich, viel zu viele Radfahrer und beschissenes Straßenlayout :ugly:
Da siehst du die Zukunft deutscher Städte :wink:

ChaosTM
2025-04-05, 22:48:37
Ich war erst kürzlich In den Hollanden,
und da sind ganze Straßen für Radfahrer reserviert..

Wie krank ist das denn ? ;)