Connect with us

Política

Distopías modernas: cuando buscan en tus redes sociales y el informe son 300 páginas de tuits en los que dijiste palabrotas

Cada vez son más los escenarios en los que un tercero revisa nuestro historial en redes sociales para validarnos en cierto tipo de proceso de selección. En Estados Unidos nos piden nuestros perfiles públicos para solicitar un visado, y la práctica de mirar en esos mensajes y publicaciones es ahora muy común en procesos de selección de trabajadores.
La situación, no obstante, se puede desmadrar. Un usuario de Twitter contaba cómo al pedir uno de estos informes a una empresa que los promociona se encontró con un documento de 300 páginas en el que aparecían todos los mensajes de Twitter en el que había usado la palabra “joder” (fuck). Daba igual el contexto.
El contexto lo es todo El usuario, con el sobrenombre de Bruise Almighty, contaba la situación y bromeaba hablando de esta nueva y singular distopía que se ha convertido en una realidad palpable que planteaba cómo ciertas empresas hacen este tipo de chequeos.
I had to get a background check for my job, and it turns out the report is a 300+ page pdf of every single tweet I’ve ever liked with the work “fuck” in it.
Enjoy your dystopian bs! *waves*
— bruise almighty (@kmlefranc) 27 de enero de 2020 La empresa en cuestión en este caso, Fama, es un servicio de monitorización de redes sociales cuyo sitio web que utilizan “monitorización online basada en inteligencia artificial para la empresa”. Con ello, aseguran, ayudan a las empresas a “identificar miles de comportamientos relevantes al empleo, como el racismo o el acoso, sin exponer a los empleadores a riesgos innecesarios o trabajo manual”.
En Xataka La privacidad en Facebook no existe: Zuckerberg conoce (casi) todo de sus usuarios, hasta sus llamadas y SMS si tienen Android Las críticas no obstante han sido numerosas en un proceso que tenía según muchos pocos indicios de haber sido monitorizado con herramientas de inteligencia artificial, y en lugar de eso parecía simplemente un documento con resultados de una simple búsqueda de una palabra.
En el documento que le enviaron de hecho todo apuntaba a que el tipo de aviso (bueno, malo), la razón (alcohol, lenguaje, fanatismo) o tipo de publicación realizada (si le ha gustado, por ejemplo) no había muestras de que hubiera procesos complejos que entendieran el contexto de esos mensajes y publicaciones en redes sociales: simplemente era un algoritmo de búsqueda de patrones de texto.
Eso plantea dudas claras a la hora de utilizar este tipo de informes como válidos para identificar posibles comportamientos más o menos favorables de un candidato que está optando por un empleo.
The especially creepy part is this didn't turn up anything at all relevant or incriminating! I keep personal info on my non-public accounts. But their shitty algorithm means that my “reputation” and “character” is flagged as questionable and sent to my boss.
— bruise almighty (@kmlefranc) 1 de febrero de 2020 Also ironic: the algorithm flagged the word “hell” and flagged this theological commentary in relation to a job… teaching theology… pic.twitter.com/2k0fcbznja
— bruise almighty (@kmlefranc) 1 de febrero de 2020 No solo se produce aquí según quienes critican este tipo de acciones cierta invasión en esos comentarios en redes sociales, sino también la mala calidad de unos resultados que no tienen en cuenta un contexto que es vital en este tipo de estudios.
Sea como fuere, algo parece estar cada vez más claro: el uso de nuestras redes sociales puede acabar siendo analizado en nuestra próxima búsqueda de empleo.

La noticia Distopías modernas: cuando buscan en tus redes sociales y el informe son 300 páginas de tuits en los que dijiste palabrotas fue publicada originalmente en Xataka por Javier Pastor .

Cada vez son más los escenarios en los que un tercero revisa nuestro historial en redes sociales para validarnos en cierto tipo de proceso de selección. En Estados Unidos nos piden nuestros perfiles públicos para solicitar un visado, y la práctica de mirar en esos mensajes y publicaciones es ahora muy común en procesos de selección de trabajadores.

La situación, no obstante, se puede desmadrar. Un usuario de Twitter contaba cómo al pedir uno de estos informes a una empresa que los promociona se encontró con un documento de 300 páginas en el que aparecían todos los mensajes de Twitter en el que había usado la palabra "joder" (fuck). Daba igual el contexto.

El contexto lo es todo

El usuario, con el sobrenombre de Bruise Almighty, contaba la situación y bromeaba hablando de esta nueva y singular distopía que se ha convertido en una realidad palpable que planteaba cómo ciertas empresas hacen este tipo de chequeos.

I had to get a background check for my job, and it turns out the report is a 300+ page pdf of every single tweet I’ve ever liked with the work “fuck” in it.
Enjoy your dystopian bs! *waves*

— bruise almighty (@kmlefranc) 27 de enero de 2020

La empresa en cuestión en este caso, Fama, es un servicio de monitorización de redes sociales cuyo sitio web que utilizan "monitorización online basada en inteligencia artificial para la empresa". Con ello, aseguran, ayudan a las empresas a "identificar miles de comportamientos relevantes al empleo, como el racismo o el acoso, sin exponer a los empleadores a riesgos innecesarios o trabajo manual".

La privacidad en Facebook no existe: Zuckerberg conoce (casi) todo de sus usuarios, hasta sus llamadas y SMS si tienen Android En Xataka La privacidad en Facebook no existe: Zuckerberg conoce (casi) todo de sus usuarios, hasta sus llamadas y SMS si tienen Android

Las críticas no obstante han sido numerosas en un proceso que tenía según muchos pocos indicios de haber sido monitorizado con herramientas de inteligencia artificial, y en lugar de eso parecía simplemente un documento con resultados de una simple búsqueda de una palabra.

Fama 2

En el documento que le enviaron de hecho todo apuntaba a que el tipo de aviso (bueno, malo), la razón (alcohol, lenguaje, fanatismo) o tipo de publicación realizada (si le ha gustado, por ejemplo) no había muestras de que hubiera procesos complejos que entendieran el contexto de esos mensajes y publicaciones en redes sociales: simplemente era un algoritmo de búsqueda de patrones de texto.

Fama 1

Eso plantea dudas claras a la hora de utilizar este tipo de informes como válidos para identificar posibles comportamientos más o menos favorables de un candidato que está optando por un empleo.

The especially creepy part is this didn't turn up anything at all relevant or incriminating! I keep personal info on my non-public accounts. But their shitty algorithm means that my "reputation" and "character" is flagged as questionable and sent to my boss.

— bruise almighty (@kmlefranc) 1 de febrero de 2020

Also ironic: the algorithm flagged the word “hell” and flagged this theological commentary in relation to a job… teaching theology… pic.twitter.com/2k0fcbznja

— bruise almighty (@kmlefranc) 1 de febrero de 2020

No solo se produce aquí según quienes critican este tipo de acciones cierta invasión en esos comentarios en redes sociales, sino también la mala calidad de unos resultados que no tienen en cuenta un contexto que es vital en este tipo de estudios.

Sea como fuere, algo parece estar cada vez más claro: el uso de nuestras redes sociales puede acabar siendo analizado en nuestra próxima búsqueda de empleo.


La noticia Distopías modernas: cuando buscan en tus redes sociales y el informe son 300 páginas de tuits en los que dijiste palabrotas fue publicada originalmente en Xataka por Javier Pastor .

Continue Reading
Advertisement
Click to comment

Leave a Reply

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.

Idiomas
//glugreez.com/4/4068622
A %d blogueros les gusta esto: