{"id":114550,"date":"2018-07-17T18:33:21","date_gmt":"2018-07-17T18:33:21","guid":{"rendered":"http:\/\/elluchador.info\/web\/?p=114550"},"modified":"2018-07-18T19:52:26","modified_gmt":"2018-07-18T19:52:26","slug":"las-camaras-que-pueden-saber-si-estas-feliz-o-si-eres-una-amenaza-para-alguien","status":"publish","type":"post","link":"https:\/\/elluchador.info\/?p=114550","title":{"rendered":"Las c\u00e1maras que pueden saber si est\u00e1s feliz o si eres una amenaza para alguien"},"content":{"rendered":"<h1 class=\"story-body__h1\"><\/h1>\n<div class=\"byline\"><span class=\"byline__name\">Daniel Thomas<\/span><span class=\"byline__title\">Corresponsal de tecnolog\u00eda, BBC News<\/span><\/div>\n<div class=\"with-extracted-share-icons\"><\/div>\n<div class=\"story-body__inner\">\n<figure class=\"media-landscape has-caption full-width lead\"><span class=\"image-and-copyright-container\"><span class=\"off-screen\">Derechos de autor de la imagen<\/span><span class=\"story-image-copyright\">AFFECTIVA<\/span><\/span><figcaption class=\"media-caption\"><span class=\"off-screen\">Image caption<\/span><span class=\"media-caption__text\">La startup Affectiva de Boston, Estados Unidos, dice que sus algoritmos pueden detectar emociones ocultas.<\/span><\/figcaption><\/figure>\n<p class=\"story-body__introduction\">La tecnolog\u00eda de reconocimiento facial es cada vez m\u00e1s sofisticada.<\/p>\n<p>Aumenta el n\u00famero de empresas que dicen tener sistemas capaces de leer emociones y detectar comportamientos sospechosos, pero \u00bfqu\u00e9 implica eso para la privacidad y las libertades civiles de las personas?<\/p>\n<p>Aunque lleva d\u00e9cadas funcionando, en los \u00faltimos a\u00f1os el progreso ha sido enorme gracias a los avances de la visi\u00f3n computacional y la inteligencia artificial, seg\u00fan los expertos en tecnolog\u00eda.<\/p>\n<p>Ahora, por ejemplo, se utiliza para identificar a personas en las fronteras, desbloquear tel\u00e9fonos, detectar criminales o validar transacciones bancarias.<\/p>\n<p>Pero algunas compa\u00f1\u00edas tecnol\u00f3gicas dicen que tambi\u00e9n pueden\u00a0<strong>evaluar nuestro estado emocional<\/strong>.<\/p>\n<h2 class=\"story-body__crosshead\">Microexpresiones<\/h2>\n<div id=\"comp-pattern-library\" class=\"distinct-component-group container-parrot\">\n<aside class=\"parrot\" role=\"region\" aria-label=\"recomendaciones\">\n<p id=\"skip-recommendations\" class=\"off-screen\" tabindex=\"-1\">Fin de las recomendaciones<\/p>\n<\/aside>\n<\/div>\n<p>Desde la d\u00e9cada de 1970, los psic\u00f3logos dicen que pueden detectar emociones ocultas estudiando las microexpresiones (movimientos muy sutiles y gestos nerviosos) en los rostros de personas en fotograf\u00edas y videos.<\/p>\n<p>Los algoritmos y c\u00e1maras de alta definici\u00f3n pueden hacerlo con precisi\u00f3n y rapidez.<\/p>\n<p>\u00abYa se est\u00e1n usando para fines comerciales\u00bb, le explica a la BBC Oliver Philippou, experto en videovigilancia que trabaja en la compa\u00f1\u00eda tecnol\u00f3gica brit\u00e1nica IHS Markit.<\/p>\n<figure class=\"media-landscape has-caption full-width\"><span class=\"image-and-copyright-container\"><img loading=\"lazy\" decoding=\"async\" class=\"responsive-image__img js-image-replace\" src=\"https:\/\/ichef.bbci.co.uk\/news\/624\/cpsprodpb\/88DF\/production\/_102493053_ios11-iphone-x-face-id-hero.jpg\" alt=\"El iPhone X puede desbloquearse usando reconocimiento facial.\" width=\"976\" height=\"549\" data-highest-encountered-width=\"624\" \/><span class=\"off-screen\">Derechos de autor de la imagen<\/span><span class=\"story-image-copyright\">APPLE<\/span><\/span><figcaption class=\"media-caption\"><span class=\"off-screen\">Image caption<\/span><span class=\"media-caption__text\">El iPhone X puede ser desbloqueado usando reconocimiento facial.<\/span><\/figcaption><\/figure>\n<p>\u00abUn supermercado podr\u00eda usarlos en sus pasillos. No para identificar personas, sino para analizar qui\u00e9n entra en t\u00e9rminos de edad y g\u00e9nero, y tambi\u00e9n su estado de \u00e1nimo. Puede ser \u00fatil para el marketing dirigido y para la publicidad por emplazamiento\u00bb.<\/p>\n<p>La agencia de investigaci\u00f3n de mercados Kantar Millward Brown utiliza la tecnolog\u00eda desarrollada por la firma estadounidense Affectiva para\u00a0<strong>analizar c\u00f3mo reaccionan los consumidores<\/strong>\u00a0a comerciales de televisi\u00f3n.<\/p>\n<p>Affectiva graba videos de rostros de personas con su permiso y luego \u00abcodifica\u00bb sus expresiones, fotograma a fotograma, para evaluar su estado de humor.<\/p>\n<p>\u00abEntrevistamos a gente, pero obtenemos muchos m\u00e1s matices observando tambi\u00e9n sus expresiones. Puedes ver exactamente qu\u00e9 parte de un aviso publicitario funciona bien y qu\u00e9 respuesta emocional desencadena\u00bb, le dice a la BBC Graham Page, director de oferta e innovaci\u00f3n en Kantar Millward Brown.<\/p>\n<figure class=\"media-landscape has-caption full-width\"><span class=\"image-and-copyright-container\"><img loading=\"lazy\" decoding=\"async\" class=\"responsive-image__img js-image-replace\" src=\"https:\/\/ichef.bbci.co.uk\/news\/624\/cpsprodpb\/13AF\/production\/_102493050_weseeemotionrecognition4.jpg\" alt=\"tecnolog\u00eda de reconocimiento facial\" width=\"976\" height=\"650\" data-highest-encountered-width=\"624\" \/><span class=\"off-screen\">Derechos de autor de la imagen<\/span><span class=\"story-image-copyright\">WESEE<\/span><\/span><figcaption class=\"media-caption\"><span class=\"off-screen\">Image caption<\/span><span class=\"media-caption__text\">La tecnolog\u00eda de WeSee se usa para evaluar las emociones de la gente durante entrevistas.<\/span><\/figcaption><\/figure>\n<h2 class=\"story-body__crosshead\">\u00abComportamientos sospechosos\u00bb<\/h2>\n<p>M\u00e1s pol\u00e9micas son las empresas que ofrecen \u00abdetecci\u00f3n de emociones\u00bb por motivos de seguridad.<\/p>\n<p>La firma brit\u00e1nica WeSee, por ejemplo, dice que su tecnolog\u00eda de inteligencia artificial puede detectar comportamientos sospechosos leyendo se\u00f1ales faciales\u00a0<strong>imperceptibles para el ojo no entrenado<\/strong>.<\/p>\n<p>Emociones como la duda o la rabia pueden ocultarse y contrastar con el lenguaje que usa la persona.<\/p>\n<p>WeSee asegura que ha estado trabajando con una organizaci\u00f3n \u00abde alto perfil\u00bb en la aplicaci\u00f3n de la ley para analizar a personas que son entrevistadas.<\/p>\n<p>\u00abUsando solamente im\u00e1genes de video de baja calidad, nuestra tecnolog\u00eda tiene la capacidad de determinar el<strong>\u00a0estado de \u00e1nimo o la intenci\u00f3n de un individuo\u00a0<\/strong>por sus expresiones faciales, postura, gestos y movimiento\u00bb, le cuenta a la BBC su director ejecutivo, David Fulton.<\/p>\n<p>\u00abEn el futuro, las c\u00e1maras de video en las estaciones de metro podr\u00eda usar nuestra tecnolog\u00eda para detectar comportamientos sospechosos y alertar a las autoridades de<strong>\u00a0una potencial amenaza terrorista<\/strong>\u00ab.<\/p>\n<figure class=\"media-landscape has-caption full-width\"><span class=\"image-and-copyright-container\"><img loading=\"lazy\" decoding=\"async\" class=\"responsive-image__img js-image-replace\" src=\"https:\/\/ichef.bbci.co.uk\/news\/624\/cpsprodpb\/68AA\/production\/_102549762_liampaynesj12.jpg\" alt=\"Concierto de m\u00fasica\" width=\"976\" height=\"549\" data-highest-encountered-width=\"624\" \/><\/span><figcaption class=\"media-caption\"><span class=\"off-screen\">Image caption<\/span><span class=\"media-caption__text\">\u00bfPuede la detecci\u00f3n de emociones ayudar a hacer m\u00e1s seguros grandes eventos como conciertos o partidos de f\u00fatbol?<\/span><\/figcaption><\/figure>\n<p>\u00abLo mismo podr\u00eda hacerse con multitudes de personas en eventos como partidos de f\u00fatbol y m\u00edtines pol\u00edticos\u00bb.<\/p>\n<p>Pero Philippou es esc\u00e9ptico en cuanto a la precisi\u00f3n de la detecci\u00f3n de emociones.<\/p>\n<h2 class=\"story-body__crosshead\">La controversia<\/h2>\n<p>\u00abEn lo que respecta a la identificaci\u00f3n facial, todav\u00eda hay m\u00e1rgenes de error. Las compa\u00f1\u00edas m\u00e1s avanzadas dicen que pueden identificar gente con una precisi\u00f3n de entre el 90 y el 92%\u00bb.<\/p>\n<p>\u00abA la hora de identificar emociones,\u00a0<strong>el margen de error aumenta significativamente\u00bb.<\/strong><\/p>\n<p>Eso preocupa a activistas por la privacidad y porque temen que esta tecnolog\u00eda pueda\u00a0<strong>hacer juicios equivocados o sesgados<\/strong>.<\/p>\n<figure class=\"media-landscape has-caption full-width\"><span class=\"image-and-copyright-container\"><img loading=\"lazy\" decoding=\"async\" class=\"responsive-image__img js-image-replace\" src=\"https:\/\/ichef.bbci.co.uk\/news\/624\/cpsprodpb\/F1FC\/production\/_102484916_facial-recognition-van-1_1-1024x825.jpg\" alt=\"c\u00e1mara de vigilancia\" width=\"976\" height=\"549\" data-highest-encountered-width=\"624\" \/><span class=\"off-screen\">Derechos de autor de la imagen<\/span><span class=\"story-image-copyright\">SOUTH WALES POLICE<\/span><\/span><figcaption class=\"media-caption\"><span class=\"off-screen\">Image caption<\/span><span class=\"media-caption__text\">En varios pa\u00edses, las autoridades usan c\u00e1maras de vigilancia con reconocimiento facial.<\/span><\/figcaption><\/figure>\n<p>\u00abImagino que hay algunos casos en los que resulta muy \u00fatil, pero las implicaciones de privacidad derivadas de la observaci\u00f3n de emociones, el reconocimiento facial y la elaboraci\u00f3n de perfiles no tienen precedentes\u00bb, dice Frederike Kaltheuner, del grupo Privacy International.<\/p>\n<p>El reconocimiento facial ya es de por s\u00ed bastante controvertido.<\/p>\n<p>La organizaci\u00f3n por los derechos humanos Liberty dice que esta tecnolog\u00eda ha generado un gran cantidad de<strong>\u00a0\u00abfalsos positivos\u00bb\u00a0<\/strong>en eventos como la final de la Champions League en Cardiff, Reino Unido, el a\u00f1o pasado.<\/p>\n<p>Un residente de esa localidad, Ed Bridges, tom\u00f3 acciones legales contra las autoridades argumentando que el sistema viol\u00f3 la privacidad de las personas.<\/p>\n<p><strong>Pero cada vez se conf\u00eda m\u00e1s en ella<\/strong>, dice Patrick Grother, director de pruebas biom\u00e9tricas en el Instituto Nacional de Est\u00e1ndares y Tecnolog\u00eda, una agencia del gobierno estadounidense que investiga cuestiones relacionadas con reconocimiento facial.<\/p>\n<figure class=\"media-landscape has-caption full-width\"><span class=\"image-and-copyright-container\"><img loading=\"lazy\" decoding=\"async\" class=\"responsive-image__img js-image-replace\" src=\"https:\/\/ichef.bbci.co.uk\/news\/624\/cpsprodpb\/185C6\/production\/_99928799_gettyimages-915205050.jpg\" alt=\"agente policial enChina\" width=\"976\" height=\"549\" data-highest-encountered-width=\"624\" \/><span class=\"off-screen\">Derechos de autor de la imagen<\/span><span class=\"story-image-copyright\">AFP<\/span><\/span><figcaption class=\"media-caption\"><span class=\"off-screen\">Image caption<\/span><span class=\"media-caption__text\">En China, la polic\u00eda usa gafas de reconocimiento facial.<\/span><\/figcaption><\/figure>\n<p>\u00c9l atribuye el reciente progreso tecnol\u00f3gico al desarrollo de \u00abredes neuronales convolucionales\u00bb, un sistema avanzado de aprendizaje autom\u00e1tico que permite una precisi\u00f3n mucho mayor.<\/p>\n<p>\u00abEsos algoritmos hacen que las computadoras puedan analizar im\u00e1genes a diferentes escalas y \u00e1ngulos\u00bb, explica.<\/p>\n<p>\u00abPuedes identificar caras de forma mucho m\u00e1s precisa, incluso aunque est\u00e9n parcialmente cubiertas por gafas de sol o cicatrices. La tasa de error se ha reducido hasta diez veces desde 2014, aunque\u00a0<strong>ning\u00fan algoritmo es perfecto<\/strong>\u00ab.<\/p>\n<p>Fulton, de WeSee, dice que su tecnolog\u00eda es simplemente una herramienta para ayudar a la gente a analizar videos de forma m\u00e1s inteligente.<\/p>\n<p>\u00abDe momento, podemos detectar un comportamiento sospechoso pero no intencional para evitar que algo malo ocurra. Pero creo que vamos a lograrlo y ya estamos haciendo pruebas\u00bb.<\/p>\n<figure class=\"media-landscape has-caption full-width\"><span class=\"image-and-copyright-container\"><img loading=\"lazy\" decoding=\"async\" class=\"responsive-image__img js-image-replace\" src=\"https:\/\/ichef.bbci.co.uk\/news\/624\/cpsprodpb\/419A\/production\/_102549761_face_recognition_fr_pic3.png\" alt=\"Tecnolog\u00eda AFR\" width=\"976\" height=\"549\" data-highest-encountered-width=\"624\" \/><span class=\"off-screen\">Derechos de autor de la imagen<\/span><span class=\"story-image-copyright\">NEC<\/span><\/span><figcaption class=\"media-caption\"><span class=\"off-screen\">Image caption<\/span><span class=\"media-caption__text\">La polic\u00eda de Reino Unido usa tecnolog\u00eda de reconocimiento facial automatizada (AFR).<\/span><\/figcaption><\/figure>\n<p>Suena un paso m\u00e1s cerca del concepto de \u00abpre-crimen\u00bb de la pel\u00edcula de ciencia ficci\u00f3n\u00a0<strong><i>Minority Report<\/i><\/strong>\u00a0(\u00abSentencia Previa\u00bb), en la que criminales potenciales eran arrestados antes incluso de que hubieran cometido sus cr\u00edmenes.<\/p>\n<p>\u00bfEs otra preocupaci\u00f3n m\u00e1s para las organizaciones de libertades civiles?<\/p>\n<p>\u00abLa pregunta clave que siempre nos hacemos es: \u00bfqui\u00e9n est\u00e1 creando esta tecnolog\u00eda y con qu\u00e9 fin?, dice Frederike Kaltheuner, de Privacy International. \u00ab\u00bfLa est\u00e1n usando para ayudarnos,\u00a0<strong>o para juzgarnos, evaluarnos y controlarnos<\/strong>?\u00bb<\/p>\n<\/div>\n","protected":false},"excerpt":{"rendered":"<p>Daniel ThomasCorresponsal de tecnolog\u00eda, BBC News Derechos de autor de la imagenAFFECTIVAImage captionLa startup Affectiva de Boston, Estados Unidos, dice que sus algoritmos pueden detectar emociones ocultas. La tecnolog\u00eda de reconocimiento facial es cada vez m\u00e1s sofisticada. Aumenta el n\u00famero de empresas que dicen tener sistemas capaces de leer emociones y detectar comportamientos sospechosos, pero [&hellip;]<\/p>\n","protected":false},"author":2,"featured_media":114679,"comment_status":"closed","ping_status":"closed","sticky":false,"template":"","format":"standard","meta":{"footnotes":""},"categories":[14],"tags":[],"class_list":{"0":"post-114550","1":"post","2":"type-post","3":"status-publish","4":"format-standard","5":"has-post-thumbnail","7":"category-tecnologia"},"_links":{"self":[{"href":"https:\/\/elluchador.info\/index.php?rest_route=\/wp\/v2\/posts\/114550","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/elluchador.info\/index.php?rest_route=\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/elluchador.info\/index.php?rest_route=\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/elluchador.info\/index.php?rest_route=\/wp\/v2\/users\/2"}],"replies":[{"embeddable":true,"href":"https:\/\/elluchador.info\/index.php?rest_route=%2Fwp%2Fv2%2Fcomments&post=114550"}],"version-history":[{"count":0,"href":"https:\/\/elluchador.info\/index.php?rest_route=\/wp\/v2\/posts\/114550\/revisions"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/elluchador.info\/index.php?rest_route=\/wp\/v2\/media\/114679"}],"wp:attachment":[{"href":"https:\/\/elluchador.info\/index.php?rest_route=%2Fwp%2Fv2%2Fmedia&parent=114550"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/elluchador.info\/index.php?rest_route=%2Fwp%2Fv2%2Fcategories&post=114550"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/elluchador.info\/index.php?rest_route=%2Fwp%2Fv2%2Ftags&post=114550"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}