<div dir="ltr"><div>Hello Les,</div><div><br></div><div>This will not cheer you up, but probably support your frustration:</div><div><br></div><div><a href="https://www.abc.net.au/news/2025-09-09/tesla-fully-self-driving-melbourne-test-not-approved/105749690">https://www.abc.net.au/news/2025-09-09/tesla-fully-self-driving-melbourne-test-not-approved/105749690</a></div><div>A self-driving test conducted by Tesla earlier this year was not approved by the Victorian government.<br>The Department of Transport and Planning requires a permit to ensure automated vehicle trials are conducted safely.</div><div><br></div><div><a href="https://ia.acs.org.au/article/2025/govt-won-t-finalise-self-driving-car-rules-until-2027.html">https://ia.acs.org.au/article/2025/govt-won-t-finalise-self-driving-car-rules-until-2027.html</a></div><div>After a decade of work, the federal government has committed to finalising formal road rules, regulations, and technical and cybersecurity standards for self-driving cars by 2027, even as autonomous vehicles are already on Australian roads</div><div><br></div><div>Sorry.</div><div><br></div><div>Daniel. </div><div><br></div><br><div class="gmail_quote gmail_quote_container"><div dir="ltr" class="gmail_attr">On Tue, Oct 28, 2025 at 1:20 PM Les Chambers <<a href="mailto:les@chambers.com.au">les@chambers.com.au</a>> wrote:<br></div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex">Bruce, <br>
Thanks for your thoughts. <br>
I'm surprised at how little pushback we are seeing from the safety-critical <br>
systems engineering profession on Tesla's fraudulent claims that supervised <br>
FSD is a viable option for controlling a motor vehicle.<br>
In my time working on road tunnel safety systems, I was educated by the road <br>
authority engineers on how seriously they take the process of shutting down a <br>
freeway. It's a dangerous move requiring careful handling. The core risk lies <br>
with the human tendency when driving on a freeway to be lulled into a false <br>
sense of security, a somnambulistic-like state where drivers assume that <br>
vehicles ahead will keep moving at their current speed. When they have, in <br>
fact, stopped, the cognitive delay is longer than normal. This is a well-known <br>
phenomenon. In this mental state, reaction times are extended, triggering what <br>
they call back-of-queue collisions. So Tesla's claim that drivers will <br>
effectively supervise their vehicle under all driving conditions IS <br>
TRANSPARENT BS, regardless of what nifty so-called safety features they might <br>
incorporate. <br>
The difficulty with this situation is the temporal paradox. As a pragmatist, I <br>
accept that there is no way of banning this technology; it is, after all, so <br>
cool. In their enthusiasm (so cool frenzy), our governments seem determined to <br>
allow Elon to stress test FSD/S on the public. In future, as it matures with <br>
gold standard neural nets, it will probably reduce the occurrence of back-of-<br>
queue collisions. Hence the paradox.<br>
Until that time, I remain depressed and grumpy.<br>
<br>
Les<br>
<br><br>
</blockquote></div></div>