La Hackathon online #GanaleAlVirus ya tiene a sus ganadores
-
Este encuentro de emprendedores y emprendedoras de la Ciudad de Mendoza,
llegó a su etapa final este lunes por la tarde. Resultaron ganadores
“FAD03”, “R...
martes, 30 de enero de 2018
Los oscuros en la inteligencia artificial
Posted By: CLAUDIA CORIN - enero 30, 2018Desnudo o desierto? La inteligencia artificial no lo tiene claro
Las tecnologías de reconocimiento facial son francamenta útiles más allá de permitirte hacer el bobo con un animoji en el iPhone X.
Son empleadas cada día más para impedir que se distribuya pornografía ilegal, especialmente pornografía infantil. Ahora bien, las herramientas aún no son perfectas.
La policía metropolitana de Londres lo sabe muy bien. Aunque está desarrollando un sistema para detectar imágenes de abuso infantil para empezar usarla "en dos o tres años", de momento no es capaz de diferenciar entre un desnudo y un desierto.
Aunque con el reconocimiento de otras imágenes sí es más útil, como para reconocer armas, dinero o drogas, en este sentido no ayuda mucho. Como asegura Mark Stokes, el jefe del departamento análisis digital forense, ha asegurado a The Telegraph que es un problema más importante de lo que parece: "Mucha gente tiene fondos de pantalla de desiertos, pero se están identificando como piel".
Sin embargo, la mejora de este tipo de software es fundamental para asegurar la estabilidad mental de los empleados y policías dedicados a perseguir la pornografía infantil. Como ya se ha demostrado en numerosas ocasiones, la exposición constante a este contenido acarrea graves problemas psicológicos a quienes tienen que lidiar con él a mano. Según Stokes, el departamento de policía trabaja con Silicon Valley para entrenar su mente virtual, aunque esto no garantiza que vaya a funcionar sin un alto índice de error.
El año pasado Facebook retiró una famosa fotografía premiada con el premio Pulitzer por aparecer una niña desnuda huyendo de las bombas de Napalm en la guerra de Vietnam. Además de los errores, el uso de máquinas para el procesado de imágenes sensibles podría acarrear otro problema de privacidad.
Según el responsable de la inteligencia artificial, el departamento se ha planteado mover la información procesada a servidores de Google, Amazon o Microsoft, pues así se ahorran los costos de almacenarla en un servidor propio.
Dado que estas compañías son más susceptibles a ataques externos y hackeos, que la policía dependa de ellas para procesar imágenes de pornografía infantil abre un importante debate sobre la dependencia tecnológica de los servicios públicos.
elmundo.es
About CLAUDIA CORIN
Organic Theme is officially developed by Templatezy Team. We published High quality Blogger Templates with Awesome Design for blogspot lovers.The very first Blogger Templates Company where you will find Responsive Design Templates.
Suscribirse a:
Comentarios de la entrada (Atom)
0 comentarios:
Publicar un comentario