As tecnologias embarcadas em carros autônomos estão revolucionando a forma como o mundo está sendo mapeado. E a busca pelo domínio da tecnologia de produção de mapas está provocando uma guerra comercial de bilhões de dólares. Utopia ou não, o carro de autônomo capturou a imaginação do público como poucos dispositivos desde o smartphone.
O mais básico deles é uma matriz omnidirecional de câmeras. O Tesla, por exemplo, têm câmeras frontais redundantes que cobrem diferentes ângulos e profundidades visuais, para que possam detectar simultaneamente marcadores de pista próximos, sinais de construção na lateral da estrada e postes de luz à distância.
Sensores de radar, livres de intempéries, acompanham a distância, o tamanho, a velocidade e a trajetória de objetos que podem cruzar o caminho do veículo, e sensores ultrassônicos oferecem detecção de curto alcance, o que é particularmente útil ao estacionar.
Além dessas ferramentas de visão e audição, a maioria dos carros autônomos também gera um mapa em tempo real do mundo. Os sensores de detecção e alcance de luz (Lidar) refletem pulsos de laser super rápidos dos objetos ao redor e medem os tempos de reflexão para criar um modelo 3D de alta resolução do ambiente imediato. Infelizmente, essas engenhocas são volumosas e caras e podem ser bloqueadas pelo mau tempo e superfícies refletivas.
Engenheiros estão se apressando para desenvolver projetos menores e de estado sólido, o que simplificaria a fabricação e reduziria os custos, mesmo que isso não resolvesse os problemas com a sensibilidade ambiental. A propriedade intelectual relacionada ao Lidar estava no centro do recente escândalo que levou à demissão de Anthony Levandowski, um engenheiro da Uber que anteriormente era o líder técnico da Waymo.
Assim, o carro “vê” e “ouve” o mundo como um espaço de código tridimensional organizado, com sinais e linhas direcionando sua operação; e, simultaneamente, como uma montagem de objetos reflexivos – pedestres, bicicletas, outros carros, crianças brincando, pedras e árvores caídas – que podem interromper a ordem daquele espaço-código e como que cada carro deve negociar sua relação espacial.
Dirigir é muitas vezes um desafio para os humanos porque precisamos codificar, como o carro faz, entre diferentes maneiras de ler e entender o mundo, enquanto também distribuímos nossa visão em diferentes larguras e profundidades de campo e linhas de visão (para não mencionar painéis e mensagens de texto e passageiros indisciplinados). Os ouvidos humanos também são multitarefas.
Todo esse processamento sensorial, tradução ontológica e triangulação metodológica podem ser bastante desgastantes. A Tesla (que, por enquanto, insiste em que seus carros podem funcionar sem o Lidar) construiu uma rede neural “profunda” para processar dados visuais, de sonar e radar, que, juntos, “fornecem uma visão de mundo que um motorista sozinho não pode ter acesso, vendo em todas as direções simultaneamente, e em comprimentos de onda que vão muito além dos sentidos humanos. A empresa também tem um ambiente de condução virtual, Carcraft, no qual os engenheiros podem percorrer milhares de cenários para gerar melhorias em seu software de direção.
Diagrama de uma “situação de interesse” descrita por Waymo; o carro parou para ceder a vez a um ciclista que se aproximava (retângulo vermelho) viajando contra o fluxo de tráfego.
Não sabemos em quanto tempo os carros autônomos estarão presentes em todos os lugares do mundo, mas é possível afirmar que quando isto acontecer o mundo estará sendo mapeado de forma constante, gerando mapas tridimensionais e você será o agente passivo deste processo, pois é quem irá ligar o carro e se locomover.
Com contribuições: placesjournal.org