![]() | Esta manhã, um Tesla Model 3 colidiu de frente contra um caminhão que tinha tombado na pista interna de uma rodovia de Taiwan. Tudo indica que o Autopilot não detectou o retângulo de segurança e pese que a pista estivesse vazia e a visibilidade era perfeita. O acidente ocorreu na estrada nacional 1 em sua passagem pelo condado de Chiayi. Eram 6:40 da manhã e os ocupantes saíram ilesos do acidente, negando-se a serem transladados ao hospital. A polícia entendeu que o proprietário do Tesla tinha ativado o assistente de condução do veículo e não viu o caminhão até que era muito tarde. |
Os vídeos do acidente são demolidores. Só no último momento, o motorista tenta frear. Seria um acidente impossível se o motorista estivesse prestando atenção à estrada, mas não seria o primeiro acidente atribuído a um excesso de confiança no Autopilot.
Tesla denomina como piloto automático a capacidade de seus carros de girar, acelerar e frear automaticamente quando há outros veículos ou pedestres na pista. A companhia vende como um extra a capacidade de condução autônoma total ou FSD, um software que pode navegar até uma localização, ultrapassar outros carros, estacionar e, no futuro próximo, reagir aos sinais e semáforos e conduzir automaticamente por vias urbanas.
Apesar do nome, o assistente da Tesla não é um sistema de condução autônoma e não deveria ser usado se não for com as mãos ao volante e prestando atenção à estrada. É um assistente baseado em um radar, oito câmeras e um software de aprendizagem automática que ainda tenha problemas para diferenciar objetos imóveis de cor clara em um dia ensolarado.
Os sistemas LiDAR baseados em laser poderiam proporcionar ao Autopilot a informação adicional necessária para evitar estes acidentes, mas Tesla confia que seus algoritmos melhorem sem precisem de LiDAR. Afinal de contas, os motoristas humanos não usamos laser e sabemos diferenciar entre um mancha branca e um caminhão virado adiante de nossas narizes.
Faça o seu comentário
Comentários