Se trata de un mecanismo que fue calificado como peligroso por organizaciones de diversidad sexual ya que atenta contra la intimidad y además puede convertirse en una herramienta de persecución.
El algoritmo clasificador de inteligencia artificial creado por los investigadores Michal Kosinski y Yilun Wang fue entrenado con imágenes faciales de perfiles públicos tomados de un sitio web de citas estadounidense, indicó el estudio revelado la semana pasada en la publicación de papers PsyArxiv, y que pronto será publicado en Journal of Personality and Social Psychology.
De acuerdo con las pruebas empleadas por los investigadores, el algoritmo permitió distinguir entre hombres homosexuales y heterosexuales en el 81% de los casos, mientras que en el caso de las mujeres es en el 74%.
Asimismo, la investigación cita que el algoritmo es más preciso que la clasificación que puede realizar un humano, al que le atribuyen un porcentaje de 61% para los hombres y 54% para las mujeres.
Las características faciales empleadas por el sistema clasificador incluyeron rasgos físicos (por ejemplo, la forma de la nariz) como transitorios (cuidado personal).
Desde organizaciones de diversidad sexual cuestionaron el sistema por considerarlo «peligroso» porque apunta contra la intimidad de las personas.
«No va a faltar mucho para que en los países donde se persigue a las personas por su orientación sexual, los gobiernos utilicen este tipo de herramientas para hostigar colectivos minoritarios», advirtió el subsecretario de Diversidad Sexual del gobierno de Santa Fe, Esteban Paulón.
Por su parte, Betiana Caseres, coordinadora del Laboratorio de Innovación Digital de Fundación Huésped, consideró que hay una cuestión que «no es inocente» respecto de quiénes y para qué desarrollan estas tecnologías.
En este sentido, coincidió con Paulón en que en el mundo todavía existen países donde está penalizado tener determinadas orientaciones sexuales, por lo cual este tipo de sistemas pueden poner en riesgo la vida de las personas.