Variedades : Carros e Cia

TESLA . Por acidente com morte.

Tribunal de Los Angeles pode responsabilizar fabricante e seus carros autônomos

E há uma arrogância sonhadora demais na venda de um avanço como o Autopilot ou Full Self-Driving (FSD).

Um pesquisador de segurança de 19 anos chamado David Colombo recentemente abriu seu notebook e conseguiu destravar portas e janelas, aumentar o som e dar partida em vários carros da Tesla – os modernos e desejados automóveis elétricos da empresa fundada por Elon Musk.

Conseguiu dirigir o veículo, acelerar?

Não. Mas carros como os modelos S, X, Y e 3 são praticamente computadores sobre rodas, e suas vantagens trazem, também, vulnerabilidades. O problema no Tesla com o jovem hacker foi um aplicativo de terceiros e não da própria fábrica, mas se acontece algum problema, não dá pra escapar da responsabilidade.

E há uma arrogância sonhadora

demais na venda de um avanço como o Autopilot ou Full Self-Driving (FSD). Os termos claramente apontam para uma autonomia do veículo em relação ao humano, e Musk insiste nisso como algo infalível – mesmo o manual dizendo que o motorista precisa estar totalmente atento à direção e pronto para assumir o comando.

O infalível essa semana

lhe custou estar ao longo de um processo que pode gerar uma jurisprudência chave para a indústria automobilística de ponta: um Tesla Model S 2016 saiu em alta-velocidade de uma freway em Gardena, LA, ignorou um sinal vermelho e bateu em um Honda Civic, pouco mais da meia-noite de dezembro de 2019, matando seus dois ocupantes. Dois anos depois, o Estado de Los Angeles apresentou duas acusações de homicídio contra o motorista do Tesla, Kevin Riad, de 27 anos. É o primeiro processo acusando um motorista de uma fatalidade enquanto usava um sistema parcialmente automatizado de direção.

É uma briga da inteligência artificial com o humano.

A Tesla foi forçada a ser adulta em relação a seus consumidores, quase como um pai punindo o filho. A National Highway Traffic Safety Administration (NHTSA) exigiu o bloqueio da função Passenger Play nos carros, enquanto em movimento. O software permitia que o motorista jogasse Sky Force Reload, Battle of Polytopia enquanto estava ao volante. E os “pilotos” realmente faziam isso. Segundo a agência governamental americana, no país morrem perto de 3 mil pessoas apenas por distração no trânsito.

A mesma NHTSA

foi até o cruzamento da Artesia Boulevard e Vermont Avenue onde ocorreu a colisão do Tesla que matou as duas pessoas. Segundo a perícia, ele estava em Autopilot no momento da colisão. Novamente: a Tesla diz que não quer que os motoristas soltem as mãos do volante e esqueçam que são condutores. Mas quem compra um carro com tais recursos quer fazer exatamente isso.

Uma reportagem de dezembro de 2021 do The New York Times

trouxe depoimentos anônimos – todos temem Elon Musk – dizendo que um vídeo gravado em 2016 para mostrar os avanços do Autopilot foi editado tirando uma sequência importante: o Tesla escapando e batendo em uma barreira na estrada, sem feridos, mas com o carro direcionado para a oficina. Em sua versão mais atualizada, o software Full Self-Driving prega garantir dirigibilidade dentro do complexo trânsito de uma cidade, mas a real é que ele não é capaz de reagir a ilógicas situações que acontecem diariamente no trânsito.

As oito câmeras externas,

os 12 sensores ultrassônicos e seu poderoso computador de bordo ajudariam a tirar o peso de dirigir como um todo do motorista em modelos mais modernos – anteriores usavam radares, também efetivos. “O Autopilot é para ser usado por motoristas em atenção total, com suas mãos ao volante e preparados para tomar o controle a qualquer momento (…) Os atuais sistemas não fazem do veículo um autônomo”, diz o manual. Outros carros, de montadoras como Jaguar, Volvo, Mercedes-Benz, Honda e BMW, entre outras, oferecem condução semi-autônoma, como o Pilot Assist, que faz curvas sozinho, e o já popular ACC (Adaptative Cruise Control), que controla a velocidade de acordo com o tráfego à frente, inclusive brecando o carro.

Mas nada disso é tão eficiente e nem se diz completo (full) como um Tesla.

A CNN testou um Model 3 e a cada quarteirão o motorista precisou intervir e fazer pequenos ajustes. Do contrário, em algumas ocasiões, poderia colidir com algo.

“Não estamos tentando fazer o carro errar, nem tirar um sarro da cara de Elon Musk, só ver como o carro dirigiria na cidade. Até agora… está indo OK”,

minimizou o editor Michael Ballaban.

O problema não é “ver”

o que se passa no entorno do carro, algo que as câmeras fazem bem, mas sim desenvolver programas que permitam reagir a tempo em situações inesperadas, algo que só a experiência ensina ao motorista.

Motorista usa o recurso Autopilot para tirar as mãos do volante do Tesla. Em outra freeway, o mal funcionamento do sistema levou a um acidente com duas mortes, depois que o carro conduzido de modo autônomo passou em um sinal vermelho e colidiu com um Honda Civic (Crédito: Istockphoto)
  • Fonte da informação:
  • Leia na fonte original da informação
  • Gildo Ribeiro

    Gildo Ribeiro é editor do Grupo 7 de Comunicação, liderado pelo Portal 7 Minutos, uma plataforma de notícias online.

    Artigos relacionados

    Botão Voltar ao topo