¿Autopilot o locura? Conductor de Tesla pone a prueba los límites de la IA
Un video viral enciende el debate sobre la seguridad del piloto automático de Tesla
Tesla, la marca líder en innovación automotriz, ha revolucionado el sector con su tecnología de conducción asistida. La opción de “Autopilot” en sus vehículos ha marcado un antes y un después, dando un vistazo al futuro de los automóviles autónomos. Sin embargo, un video reciente que se viralizó en redes sociales ha puesto en duda la seguridad y los límites de esta tecnología.
El video, filmado en una autopista de California, muestra un Tesla Model 3 rojo circulando sin que su conductor parezca estar prestando atención. Lo que ha llamado más la atención no es solo que el conductor aparentemente estaba dormido, sino que el parabrisas del automóvil estaba cubierto con un parasol, bloqueando completamente la visibilidad.
Como si eso no fuera suficiente, las ventanillas laterales del vehículo estaban cubiertas con papel periódico, un esfuerzo evidente por tapar el sol lo máximo posible. El vehículo avanzaba sin inconvenientes, aparentemente guiado por el sistema de Autopilot de Tesla.
Elon Musk en la mira: director de 'Yo, robot' reclama derechos de diseños originales
Leer más¿Cómo logró engañar al sistema?
El video ha generado una ola de preguntas entre los internautas y expertos en tecnología. Una de las mayores incógnitas es cómo el conductor logró engañar el avanzado sistema de seguridad de Tesla, que, en teoría, debería detectar la falta de atención al volante.
Según los protocolos de la marca, el Autopilot de Tesla requiere que el conductor mantenga las manos en el volante y la vista en la carretera para funcionar correctamente. Si estos parámetros no se cumplen, el sistema emite alertas que obligan al conductor a retomar el control.
Entonces, ¿cómo es posible que este vehículo haya continuado su marcha con un conductor aparentemente dormido y sin visibilidad? Este incidente ha generado especulaciones sobre posibles fallos o brechas en los mecanismos de seguridad de Tesla.
Algunos expertos sugieren que el conductor podría haber usado dispositivos externos para engañar al sistema y evitar las alertas, como objetos que simulan la presión de las manos en el volante que se venden en páginas web.
Autopilot: ¿Conducción autónoma o marketing?
Aunque Tesla ha promovido su tecnología de Autopilot como un avance hacia la conducción autónoma, es importante recordar que, en la actualidad, este sistema es considerado de nivel 2 en la escala de autonomía vehicular.
Esto significa que, aunque el automóvil puede ejecutar ciertas funciones por sí mismo, como el control de velocidad y el mantenimiento de carril, aún requiere la intervención constante del conductor. Los niveles 4 y 5 de autonomía, que permiten la conducción completamente independiente del ser humano, aún están lejos de implementarse en la vida cotidiana.
El debate sobre la responsabilidad del conductor y la tecnología de Tesla se intensifica cada vez que ocurre un incidente como este. La empresa ha sido clara en afirmar que el Autopilot es un sistema de asistencia y no una solución de conducción autónoma total.
El robot humanoide de Tesla presentado con el Cybercab era controlado remotamente
Leer másTesla y la seguridad: ¿Suficientes medidas de control?
El Autopilot de Tesla incluye diversas funciones de seguridad, como el frenado de emergencia, la detección de obstáculos y el control del vehículo adaptativo, pero la clave del sistema sigue siendo la intervención humana.
Los sensores y cámaras del vehículo están diseñados para detectar anomalías, pero si el sistema es manipulado o no se siguen las instrucciones adecuadamente, las consecuencias pueden ser peligrosas.
Tesla ha señalado en múltiples ocasiones que los accidentes con Autopilot activado son significativamente menores que en vehículos sin este sistema, pero la realidad es que el riesgo sigue existiendo si no se utiliza de manera adecuada.
Para seguir leyendo EXPRESO sin restricciones, SUSCRÍBETE AQUÍ.