Google nos tiene acostumbrados a sembrar mitos que nosotros solemos creer.
En un comunicado reciente, dicen haber desarrollado un algoritmo que predice cuándo un empleado está por renunciar.
Supuestamente, claro, esta especie de algoritmo experto en rrhh, especula respecto a las intenciones del empleado antes que el mismo lo sepa.
Supuestamente esto se hace teniendo en cuenta muchos parámetros de datos conocidos de varias empresas.
La pregunta es: cómo sabe Google los datos de esas empresas, ¿acaso las empresas colaboran con Google ofreciendo sus datos más preciados?, o lo que es peor: los empleados, ¿saben que sus datos son usados para este propósito?
Imagino este escenario: supongamos que una empresa contrata los servicios de dicho algoritmo, digo algoritmo, porque los comunicados de Google nunca son de pensamientos o ideas de personas, o de grupos de trabajo o grupos de investigación, son siempre “cosas” que hacen los algoritmos, asunto que es de destacar, porque es uno de los modos de despersonalización y exculpación más impresionante que he visto: los algoritmos en Google son los que manejan todo, nunca hay detrás una “mano humana”.
En serio: lean los comunicados que difunden y verán.
Decía que, supongamos que una empresa los contrata, y el algoritmo predice que Juan Perez, está por renunciar.
Yo supongo que la empresa tomará recaudos anticipados para prever las relaciones de ese puesto que afectarían a la empresa, por ejemplo, formar un reemplazo, o contratar a otro con perfil parecido.
En otras palabras, es exactamente lo que pasa con las profecías autocumplidas: el hecho de conocer algo por anticipado, hace que el comportamiento de lo que orbita a su alrededor cambie, y precipita que el hecho pase.
Lo que me molesta de este tipo de cosas es que se intenta meter al ser humano dentro de la definición de un patrón de comportamiento, y se asume sin cuestión que ese patrón se cumplirá.
Alguno me podría decir que las estadísticas son justamente el análisis más cercano con que contamos para la previsión, pero digo yo: ¿y si en vez de preveer tanto, las empresas se preocuparan por conocer mejor a sus empleados, y entender cuáles son las motivaciones que hacen que alguien se sienta bien con su trabajo y no está en riesgo de renuncia?
La idea de este tipo de control (qué fea palabra), no es nueva, todas las empresas quieren saber ese tipo de cosas para poder predecir con cuales trabajos pueden comprometerse, eso no es nuevo, pero ahora imaginen ese tipo de información como moneda de consumo en el mercado laboral.
El dato del empleado, sería de este modo un elemento de consumo, tal como lo es hoy su mail.
Claro, Google no es tonto, seguramente no faltará el comunicado que diga que este algoritmo, le informará al empresario cuáles son las mejoras laborales que debe ofrecer al empleado que está por irse sin que él lo sepa, para tentarlo y desechar esa posibilidad.
Lo cual plantea una paradoja, el empleado para el cual se había predicho una renuncia, ahora cuenta con un factor, el premio-tentación, que hace que el hecho de la renuncia quede, quizás, fuera de su intención.
Y entonces, ¿cómo se prueba que tal algoritmo era cierto?, ¿cómo se sabrá que realmente iba a ocurrir lo que algoritmo predijo?
A mi modo de ver Google, está cada vez más involucrado con la ciencia ficción, plantea situaciones que son tan relativas que nunca se termina de comprender cuál es la verdad en sus afirmaciones.
La verdad, no le encuentro ninguna utilidad a esta cuestión como no sea manipular a gente y lucrar en el proceso, experimentando tanto con dueños de empresas como con empleados.
|