Noticias y Nuevos Productos

El detector de mentiras del futuro será un software inteligente

El detector de mentiras del futuro será un software inteligente

El columnista Rob Enderle escribe cómo un asistente de robot socialmente consciente, o SARA (por sus siglas en inglés), diseñado para leer y aprender de la conducta humana podría ser una ayuda masiva para que las empresas y los gobiernos tengan más éxito.

No es difícil pensar que el sistema político está pasando por un mal momento en gran parte del mundo. En Estados Unidos, en particular, los índices de aprobación que rodean al gobierno tienden a ser no sólo bajos, sino que la tendencia sigue a la baja y las últimas elecciones parecen más una revolución que una transición de poder pacífica. Ninguna de las partes parece ser capaz de mantener a sus propios miembros felices y, a menudo parece más centrado en las disputas con otros políticos que en hacer un progreso real y significativo.

Por desgracia, he visto que este mismo comportamiento se repite en las empresas en la forma de actuar de los ejecutivos.

Aunque este comportamiento egoísta es común, no es universal. Hay quienes realmente se preocupan más por conseguir el progreso de la compañía que de hacer méritos personales o conseguir ascensos. Pero muchas veces son subestimados y manejados por los que tienen mejores habilidades políticas.

    ¿Qué pasaría si tuviéramos un sistema que realmente comprendiera el comportamiento y pudiera distinguir a personas cuyas prioridades son perjudiciales para los objetivos de la empresa, ya sea para la modificación del comportamiento o para no contar con ellas? ¿No haría que tanto la firma tuviera más éxito y se convirtiera en un mejor lugar para trabajar?

Por supuesto, hay un poco de ‘big brother’ electrónico en esto, pero ya que utilizamos la tecnología para mitigar otros tipos de amenazas de manera invasiva ¿por qué no centrarnos en el mal comportamiento humano como un problema central que se puede resolver?

SARA, el robot social

Al parecer, utilizando el aprendizaje en profundidad de NVIDIA y la tecnología de inteligencia artificial, Carnegie Mellon University y ArticuLab han creado a SARA (Socially Aware Robot Assistant), un robot está diseñado para leer y aprender de la conducta humana.

Capaz de ir más allá de la palabra hablada y mirar el comportamiento físico, el tono y la estructura de la oración para determinar el verdadero significado detrás de las palabras y aprender de la interacción, SARA podría cambiar muchas cosas de las encuestas, limitada únicamente por el tamaño y el alcance del sistema.

Veo aplicaciones que van desde la seguridad (identificando a las personas que pretenden dañar a la empresa), militares (que identifican a los que pueden llevar armas ocultas o explosivos), las ventas (segmentación en tiempo real de lo que saben o quieren comprar o simplemente están pasando el tiempo). Pero creo que este sistema también podría identificar y ayudar a corregir a los malos ejecutivos y políticos.

Mejores ejecutivos… y políticos

En alguna ocasión seguramente usted habrá visto a ejecutivos que se atribuyen los éxitos de otros y han asignado a otros la culpa de las cosas que sí hicieron. Pienso en ellos como un virus hostil que es casi imposible de eliminar, pero mortal para la corporación. Si hubiera un sistema capaz de analizar su comportamiento, probablemente podría, con el tiempo, diferenciar entre aquellos que sinceramente quieren ayudar a hacer progresos y aquellos que dicen las palabras “correctas”, pero planean apuñalarte en la espalda a la primera oportunidad.

En resumen, podría resaltar la diferencia entre la lealtad real y la falsa lealtad de alguien que planea traicionarle. Una vez que sepa esto podrá tratar más eficazmente con esas personas y conseguir mantener a las personas de mayor confianza.

    A Carly Fiorina, expresidenta de HP, le ocurrió esto dos veces durante su mandato como CEO, y contribuyó a su fin en la compañía. Y Ray Noorda, CEO de Novell, también tenía en su sucesor elegido al “dedo” que le estaba traicionando.

Si bien esto podría ser muy poderoso en las empresas para identificar personas –incluso a aquellos que están malversando a cualquier nivel–, podría ser mucho más poderoso en la política. Piense en un servicio de noticias que pudiera desplegar este sistema imparcial durante un debate y, en tiempo real, proporcionar dos indicadores: uno sobre los hechos que demuestran la exactitud y otro que demuestre la verdad.

Combinado ambos, el público diferenciaría a aquellos que estaban mal informados sobre un tema, y expondría a aquellos que sabían la respuesta correcta, pero estaban facilitando otra información para promoverse personalmente… o a su partido.

Entonces los votantes podían decidir si quieren un político veraz o uno deshonesto bien informado. Por supuesto que mi preferencia sería un político bien informado y, creo, este tipo de aplicación sería así. ¿Eso no cambiaría el mundo?

Una computadora imparcial que puede “leer” a las personas podría ser una ayuda masiva en conseguir compañías y gobiernos más acertados y responsables.

Este tipo de cosas podría abrir un área completamente nueva de analítica que mirara a un conjunto mucho más amplio de datos para poder decir no sólo lo que realmente está sucediendo en tiempo real, sino para proyectar mejor el futuro, ya sea de elección o de resultados de ventas.

Deja un comentario

Your email address will not be published. Required fields are marked *

You may use these HTML tags and attributes: <a href="" title=""> <abbr title=""> <acronym title=""> <b> <blockquote cite=""> <cite> <code> <del datetime=""> <em> <i> <q cite=""> <s> <strike> <strong>