martes, 6 de febrero de 2018

5 algoritmos que ya están tomando decisiones sobre tu vida y que quizás tú no sabías

5 algoritmos que ya están tomando decisiones sobre tu vida y que quizás tú no sabías


Matriz de números

Un video que mostraba cómo sacaban a la fuerza a un pasajero de un avión de United Airways en el aeropuerto O'Hare de Chicago, Estados Unidos, se convirtió en un fenómeno viral el pasado mes de abril.
El video fue pésima publicidad para la aerolínea estadounidense, cuyos empleados querían que el hombre en cuestión, un médico de nombre David Dao, desocupara su silla para dársela a un piloto de la compañía que necesitaba llegar a la ciudad de destino del vuelo, Louisville, para hacer un relevo.
Sin embargo, apenas un puñado de las muchísimas críticas que le llovieron a la empresa abordaba un asunto crucial: ¿cómo se había determinado que fuera Dao quien cediera su lugar en el vuelo?
La necesidad de remover a Dao fue decidida por una máquina. Más específicamente, por un software que probablemente ya había marcado al doctor mucho antes de que éste pusiera un pie en el aeropuerto.
Este es sólo un ejemplo de cómo esos algoritmos están -de manera invisible y detrás de escena- tomando decisiones que afectan nuestras vidas.
Y no hablamos de los algoritmos de Google, Facebook o Netflix, que nos filtran lo que vemos o nos ofrecen sugerencias a partir de nuestras selecciones previas: a diferencia de estos, hay algoritmos que no están directamente relacionados con nuestras acciones.
En la BBC hemos reunido algunos ejemplos de cómo tu vida está ya afectada por ellos.

1. La inteligencia artificial decide si vas a tener un trabajo o no

Las hojas de vida o currículums ahora son más propensos a ser descartados sin siquiera pasar por las manos y la vista de un ser humano.
Robot y humano se dan la mano

Eso es porque cada día las compañías de selección de personal están adoptando programas de Sistemas de Seguimiento a Candidatos que manejan los procesos de reclutamiento, especialmente el análisis de cientos (o miles) de solicitudes iniciales.
En EE.UU. se estima que el 70% de las solicitudes de empleo son filtradas antes de ser analizadas por humanos.
Para las compañías, esto permite ahorrar tiempo y dinero en el proceso de contratación de nuevos empleados.
Sin embargo, este sistema ha generado cuestionamientos sobre la neutralidad de los algoritmos.
En un artículo de la Harvard Business Review, los académicos Gideon Mann y Cathy O'Neil argumentan que estos programas no están desprovistos de los prejuicios y sesgos propios de los humanos, lo que podría hacer que la inteligencia artificial no sea realmente objetiva.

2. ¿Quieres un préstamo? Tu perfil en las redes sociales puede impedírtelo...

Históricamente, cuando alguien solicitaba un préstamo a una entidad financiera, la respuesta estaba basada en el directo análisis de su capacidad de pago: la proporción de la deuda sobre el ingreso de la persona y el historial crediticio.
Escena en un banco
Pero ya no es así: la capacidad de pagar un crédito ahora es evaluada por algoritmos que acumulan datos de distintas fuentes, que van desde patrones de compra hasta búsquedas en internet y actividad en redes sociales.
El problema es que ese método no tradicional podría recoger información sin el conocimiento o el visto bueno de los posibles beneficiarios del crédito.
También aquí hay cuestionamientos sobre la transparencia e imparcialidad del proceso.

3. Te puede ayudar a encontrar el amor, pero tal vez no el que estás esperando

No es una sorpresa saber que las aplicaciones de citas en internet usan algoritmos para juntar a las parejas.
De hecho es parte de su discurso para atraer clientes, especialmente con los servicios premium o de pago.
Buscando parejas online
Sin embargo, cómo lo hacen es mucho menos claro.
Especialmente después de que eHarmony, uno de los sitios de citas más exitosos del planeta, revelara el año pasado que ajustaba los perfiles de algunos clientes con la idea de volverlos más "simpáticos" y atractivos.
Eso significa ignorar algunas preferencias de los usuarios, como los "me gusta" y "no me gusta".
Y esto es bastante molesto para la persona que se tomó el tiempo de responder las 400 preguntas que se piden para crear un perfil en eHarmony.
Pero incluso opciones más simples como Tinder, donde las variables son menos (ubicación, edad y preferencias sexuales), no son tan claras o aleatorias.
A cualquiera que use esta aplicación se le asigna una "calificación por atracción" secreta -esto es, cuán "deseable" resulta el candidato-, que es calculada por la compañía con la idea de "facilitar mejores emparejamientos".
La compañía ha mantenido en secreto esta fórmula, pero sus ejecutivos han dado algunas pistas.
Por caso, el número de veces que un usuario es arrastrado hacia la derecha o la izquierda por otros (que es la manera como en Tinder se indica si alguien te gusta o no te gusta) juega un papel muy importante.

4. Un programa puede determinar si eres un adicto o puedes tener un seguro médico

El abuso de opioides -vendidos de forma legal o ilegal- es la principal causa de muertes accidentales en Estados Unidos y los expertos en salud a menudo hablan de una "epidemia" en el consumo.
Opioides
Para atacar el problema, científicos y autoridades se están uniendo para crear y ejecutar proyectos basados en datos.
Más recientemente, en el estado de Tennessee, el proveedor de seguro médico Blue Cross y la firma tecnológica Fuzzy Logix anunciaron la creación de un algoritmo que analizaba nada menos que 742 variables para evaluar el riesgo de abuso e identificar posibles adictos.
Pero por supuesto que eso elevó una discusión ética: los datos analizados incluyen las historias médicas e incluso la dirección de residencia, de los candidatos.
El argumento a favor señala que este tipo de intervención puede salvar vidas e incluso puede reducir abusos al sistema.
Los adictos a los opioides tienen un 59% más de probabilidades de ser usuarios costosos de servicios médicos.
Los defensores del uso de la inteligencia artificial y los algoritmos en el sector señalan que esto podría ayudar a tomar decisiones y reducir el gasto innecesario generado por errores humanos.

5. Un computador puede enviarte a prisión

Jueces en al menos 10 estados de EE.UU. están dictando sentencia con la ayuda de una herramienta llamada COMPAS.
justicia
Es un algoritmo de evaluación de riesgos que puede predecir las probabilidades de que un individuo haya cometido un crimen.
Uno de los casos más famosos que involucra el uso de COMPAS ocurrió en 2013, cuando Eric Loomis fue sentenciado a siete años de prisión por eludir el control policial y manejar un vehículo sin el consentimiento de su dueño.
Al preparar la sentencia, las autoridades locales presentaron una evaluación -basada en una entrevista y en la información sobre sus probabilidades criminales- y Loomis obtuvo una calificación de "alto riesgo de cometer nuevos crímenes".
Sus abogados rechazaron la condena usando distintos argumentos, uno de ellos el hecho de que COMPAS había sido desarrollado por una empresa privada y la información sobre cómo funcionaba el algoritmo nunca había sido revelada.
También reclamaron que los derechos de Loomis habían sido violados, porque la evaluación de riesgo tomó en cuenta información sobre el género y la información racial.
De hecho, un análisis de más de 10.000 acusados en el estado de Florida publicado en 2016 por el grupo de investigación ProPublica mostró que las personas negras eran a menudo calificadas con altas probabilidades de reincidir, mientras que los blancos eran considerados menos proclives a cometer nuevos crímenes.

lunes, 5 de febrero de 2018

Inteligencia artificial, el aliado de YouTube que hace el trabajo de 180.000 personas

Inteligencia artificial, el aliado de YouTube que hace el trabajo de 180.000 personas

Con un volumen de 400 vídeos por minuto subidos a la plataforma, la ayuda de esta tecnología, implementada desde junio de 2017, ha sido vital en la detección de contenido inapropiado que viola los términos y condiciones del servicio

El 98 por ciento del contenido inapropiado que detecta YouTube lo hace a través de la inteligencia artificial

2017 no ha sido un buen año para la reputación de las redes sociales. La interferencia electoral de los grupos respaldados por Rusia y su difusión, el fenómeno conocido como las «fake news»; la distribución de contenido extremista que dio lugar incluso a altercados; las dudas de los gobiernos europeos en torno al tratamiento de los datos de los usuarios o la amenaza de pérdidas masivas de puestos de trabajo debido al auge de la inteligencia artificial, comparada con descubrimientos como «el fuego o la electricidad», han situado a estas plataformas en el ojo del huracán. Como respuesta, las compañías han puesto en marcha diversas campañas para cambiar esta percepción «maligna» que aletea sobre las compañías, además de explicar cómo los avances tecnológicos (con la inteligencia artificial a la cabeza) pueden ayudar a hacer más seguro el entorno digital.
Un ejemplo de este intento por mostrar el potencial positivo de estas comunidades online es la iniciativa «YoMeSumo», un proyecto creado por Google a través de su marca YouTube en colaboración con elGobierno de España, la Red Aware, FeSP UGT y la ONG Jóvenes y Desarrollo. Su objetivo es llegar a 28.000 jóvenes de todo el país con charlas en centros educativos y a través de las redes sociales para luchar contra el discurso del odio en todas sus facetas, también en internet.

«Youtubers buenos» contra «youtubers malos»

«Últimamente, se han publicado casos de creadores en Youtube que justamente difundían mensajes negativos. Y lo que buscamos con esta campaña es mostrar que somos más los que estamos en contra del discurso del odio y a favor de la diversidad y la tolerancia», explica para ABC Vicky Campetellaresponsable de prensa de YouTube en España. Para esta iniciativa cuentan con ocho «youtubers» españoles, como Yellow Mellow o Andrea Compton, y con artistas urbanos de la talla de Arkano Rayden. «Lamentablemente, estos chicos no tienen la misma visibilidad que tienen otros casos negativos, por lo que la intención de YouTube es impulsar su mensaje para que penetre con más facilidad», afirma la portavoz de YouTube.
La polémica en torno a Logan Paul, conocido «youtuber» que mostró en uno de sus vídeos un cadáver en Japón, hizo saltar las alarmas, propiciando el debate acerca de la responsabilidad de plataformas como YouTube en los contenidos que se suben a su red. Además, proliferan los casos de usuarios que, a través de sus comentarios, fomentan este tipo de prácticas, ya sea insultando a los «youtubers» o propagando mensajes negativos que son accesibles a toda la comunidad.

«YouTube es una plataforma tecnológica, no un medio de comunicación»

«Hay que entender que YouTube es una plataforma tecnológica, no es un medio de comunicación, y no es su deber adentrarse en el contenido, porque creemos en la libertad de expresión. Lo que sí hacemos es ofrecer herramientas a los creadores para que ellos mismos puedan monitorizar los comentarios y moderarlos por sí mismos, porque se trata de un espacio autorregulable. Confiamos en que los propios usuarios nos ayuden en esto», señala la responsable de YouTube en España. Pero la responsabilidad no solo recae en los cibernautas: las compañías, entre ellas YouTube, se han aliado con la inteligencia artificial para detectar, incluso antes de que se reporte, el contenido que viola sus políticas y condiciones del servicio.

La AI identifica el 98% del contenido inapropiado

«Se suben 400 horas de vídeo por minuto, con lo que la revisión previa es humana y tecnológicamente muy compleja hoy en día. Ahora bien, queremos actuar de una forma responsable, por lo que estamos aplicando la inteligencia artificial para detectar de manera temprana estos vídeos inapropiados», explica Campetella. Un sistema que es capaz de identificar el 98% de los archivos retirados, que han sido 150.000. «Desde que comenzamos a usar el aprendizaje automático en junio del año pasado hemos revisado y detectado contenidos que podrían haber precisado para su valoración la intervención de 180.000 personas trabajando 40 horas a la semana. Dada su efectividad, hoy estamos aplicando esta tecnología en otros campos como la seguridad de los niños», afirma la responsable.
Sin embargo, y aunque las cifras puedan alertar a los escépticos de las ventajas de la inteligencia artificial, YouTube anunciaba a finales de año que también reforzaría su equipo humano, encargado de revisar todos los avisos de contenido inapropiado que llegan de parte de los usuarios.

Trabajando con expertos

En cuanto a la seguridad de los niños, en su intento por crear un entorno «sano», se creó «YouTube Kids». Esta aplicación, desarrollada por Google y enfocada a menores de entre 2 y 8 años y sus familias, estuvo en el punto de mira tras «infiltrarse» imágenes de niños en actitudes insinuantes, incluso vinculadas a pedófilos, cuentas que la compañía eliminó tras conocer su existencia. «Es cierto que se suben muchos vídeos y, a veces, se cuela contenido que pareciera ser infantil que no es apropiado. Lo que hacemos es aplicar la tecnología para detectarlo de manera temprana, restringiendo por edades el contenido y poniendo avisos previos a la reproducción. También trabajamos con organizaciones que nos ayudan a identificar este tipo de vídeos», asevera Campetella.
Unos retos enfocados a su compromiso de «hacerlo bien» -tal y como afirmaban fuentes de YouTube a ABC-, en un entorno en el que parecen no acabarse las amenazas.

El mercado de los smartphones sufre su mayor caída histórica

El mercado de los smartphones sufre su mayor caída histórica

El último trimestre de 2017 las ventas globales de teléfonos inteligentes sufrieron un descenso del 9 por ciento

Se vendieron 400,2 millones de terminales


El último trimestre de 2017 fue un año histórico para la venta de smartphones, aunque de forma negativa: el mercado mundial descendió un 9 por ciento, según un estudio de Los datos de Strategy Analytics recogido por The Guardian. En concreto, los datos muestran que los envíos globales de teléfonos inteligentes se contrajeron de 438,7 millones a 400,2 millones, comparado con el mismo trimestre del año anterior.
Incluso las ventas del «todopoderoso» Apple y su iPhone disminuyeron un 1 por ciento, apoyando la teoría de que los usuarios se aferran a sus terminales durante más tiempo. La caída ha sido compensada por la compañía de Cupertino con el aumento del precio de sus terminales, sobretodo del iPhone X, que fue lanzado en noviembre del pasado año a un precio que ronda los 1.000 euros (aunque los expertos apuntan a una caída de las ventas desde principios de 2018).

Colapso del mercado de China

Linda Sui, directora de Strategy Analytics, ha afirmado: «Se trata de la mayor caída anual en la historia de smartphones. La contracción en los envíos mundiales de teléfonos inteligentes fue causada por un colapso en el enorme mercado de China, donde la demanda cayó un 16 por ciento anual».
Por su parte, el director ejecutivo de la compañía, Neil Mawston, ha destacado que «los volúmenes globales de iPhone han disminuido de manera anual durante cinco de los últimos ocho trimestres». «Si Apple quiere expandir los volúmenes de envío en el futuro, tendrá que lanzar una nueva ola de iPhones más baratos y comenzar a empujar hacia abajo, no hacia arriba, la curva de precios», ha agregado.

Consumidores más exigentes

A pesar de la contracción en el último trimestre, el mercado entero cruzó 1.500 millones de smartphones vendidos por primera vez en 2017, un 1,3 por ciento más. Sin embargo, está muy lejos del aumento interanual de 158 y 12,3 por ciento registrado en 2015 y aún menor que el aumento de 48 y 3,3 por ciento en 2016.
Esto es debido a la saturación de móviles de los países desarrollados y las exigencias de los compradores primerizos, que están más informados acerca de la calidad de los dispositivos que adquieren.

jueves, 18 de enero de 2018

Cómo detectar los "mensajes bomba" ChaiOS que congelan tu iPhone o Mac y qué hacer al respecto

Cómo detectar los "mensajes bomba" ChaiOS que congelan tu iPhone o Mac y qué hacer al respecto


iPhone

Si usas un iPhone o una computadora Mac y recibes un mensaje con un enlace extraño a GitHub, no lo abras.
Podría tratarse de un "mensaje bomba" que está circulando a través de los dispositivos de Apple y es capaz de dejarlos paralizados temporalmente y obligarte a reiniciarlos... aunque no hayas hecho clic en el enlace malicioso que contiene.
Se trata de un bug (fallo informático) que el desarrollador de software Abraham Masri reveló en Twitter. Lo llamó "ChaiOS".
"Este mensaje de texto congela el dispositivo del destinatario y puede forzarle a reiniciarlo. No lo uses para fines maliciosos", publicó el informático en la red social.
De acuerdo con Marsi y tras pruebas hechas por varios usuarios, el mensaje es capaz de infectar casi todos los modelos de teléfonos y computadoras que usan el sistema operativo iOS, desde iOS 10 hasta la quinta versión beta de iOS 11.2.5, la penúltima que lanzó la compañía.
Si el mensaje llega a través de un Mac, es capaz de hacer caer a Safari, el navegador de Apple, y causar ralentizaciones.
El texto está circulando a través de la aplicación de mensajería de Apple,iMessage, y contiene el siguiente enlace: iabem97.github.io/chaiOS
Se trata de un enlace de acceso público que está vinculado a GitHub, una plataforma digital para alojar proyectos.
Por el momento se desconocen las razones que ocasionan el problema.
Masri aseguró que "siempre informa sobre errores tecnológicos" y añadió en Twitter que "Apple debería tomarse más en serio" este tipo de fallos.
Mac de Apple

"Una molestia"

Sin embargo, algunos especialistas aseguran que el problema, aunque resulta molesto, no debería alarmar a los usuarios.
El experto en seguridad Graham Cluley alertó en su blog sobre el bug y dijo que, efectivamente, el mensaje es capaz de bloquear la pantalla y causar "comportamientos peculiares" en el terminal.
El fallo "genera confusión en el dispositivo y iMessages decide cerrarse. No es agradable, pero es más una molestia que algo que pueda hacer que roben tus datos o que un hacker acceda a tus archivos".
Apple todavía no se ha pronunciado al respecto.
Marsi dijo que inutilizaría el enlace de GitHub al que está vinculado el mensaje, pero advirtió que otras personas pueden usar el bug para crear un enlace nuevo que cause los mismos problemas.
También aseguró que no es la primera vez que denuncia errores de Apple, y le contó al medio especializado Buzzfeed que en otra ocasión avisó sobre un error que desactivaba la pantalla del celular y que desde la compañía le explicaron que no les parecía que fuera un problema grave.
cajas de iPhones.
Esta no es la primera vez que ocurren fallos de este tipo que afectan a clientes de Apple.
En noviembre, la empresa tuvo que pedir disculpas por un error que daba acceso a cualquier computadora Mac sin necesidad de contraseña.
BBC

¿Qué hacer si te llegó el "mensaje bomba"?


  • No hagas clic en el enlace.
  • Elimina toda la conversación.
  • Usa siempre la versión más reciente de iOS.
  • Si el fallo te obliga a reiniciar, restaura el dispositivo a la configuración de fábrica (dentro del menú "Ajustes").
  • También puedes bloquear GitHub (dentro de "Restricciones"), aunque eso no será efectivo si alojan el código en otro sitio web.
  • Si Apple lanza un parche de seguridad para gestionar este fallo, instálalo cuanto antes.