Sabemos perfectamente que la tecnología de conducción autónoma está apoyada en un amplio hardware. Desde cámaras convencionales hasta radares LIDAR pasando por sensores de proximidad, entre otros. Las bases de esta tecnología se apoyan en el reconocimiento del entorno de forma casi milimétrica, el procesado de esta información e interpretación, y por supuesto la aplicación de una respuesta electrónica y mecánica por parte del vehículo. A grandes rasgos, eso es la conducción autónoma, pero ¿qué ve exactamente un coche autónomo de Google?

Esto es lo que ‘ven’ los coches autónomos de Google, cómo perciben la carretera y su entorno

Según enseña y explica Google, se utiliza la tecnología LIDAR para proyectar decenas de señales láser que sirven para crear una precisa imagen del entorno. Como complemento, los radares periféricos del vehículo consiguen que la tecnología de conducción autónoma pueda conocer la distancia exacta a la que están ubicados todos los objetos del entorno que rodean al vehículo. Y esta misma tecnología sirve también para conocer a qué velocidad se desplazan los objetos que están en 360º alrededor del vehículo autónomo.

Y también hay cámaras convencionales, de alta resolución, que se utilizan para tomar información sobre el estado del tráfico, o sencillamente interpretar las señales de tráfico. Con todo esto, el coche autónomo de Google puede reconocer dónde está ubicado exactamente respecto a la carretera, y dónde están el resto de vehículos. Además, puede predecir qué harán el resto de vehículos y tomar decisiones, o más bien acciones, en consecuencia. Según Google –y nos lo enseñan en el vídeo- la sensación para los pasajeros es exactamente la misma que la de circular en un vehículo conducido por un humano.

 

Fuente: adslzone