Publicado el martes 15 de mayo del 2018 a las 08:12.

CINCO COSAS QUE LA INTELIGENCIA ARTIFICIAL DECIDE POR USTED SIN QUE LO NOTE


Un video que mostraba cómo sacaban a la fuerza a un pasajero de un avión de United Airways en el aeropuerto O'Hare de Chicago, Estados Unidos, se convirtió en un fenómeno viral.

 

El video fue pésima publicidad para la aerolínea estadounidense, cuyos empleados querían que el hombre en cuestión, un médico de nombre David Dao, desocupara su silla para dársela a un piloto de la compañía que necesitaba llegar a la ciudad de destino del vuelo, Louisville, para hacer un relevo.

 

Sin embargo, apenas un puñado de las muchísimas críticas que le llovieron a la empresa abordaba un asunto crucial: ¿cómo se había determinado que fuera Dao quien cediera su lugar en el vuelo?

 

La necesidad de remover a Dao fue decidida por una máquina. Más específicamente, por un software que probablemente ya había marcado al doctor mucho antes de que pusiera un pie en el aeropuerto.

 

Este es sólo un ejemplo de cómo esos algoritmos están -de manera invisible y detrás de escena- tomando decisiones que afectan nuestras vidas.

 

Y no hablamos de los algoritmos de Google, Facebook o Netflix, que nos filtran lo que vemos o nos ofrecen sugerencias a partir de nuestras selecciones previas: a diferencia de estos, hay algoritmos que no están directamente relacionados con nuestras acciones.

 

En la BBC Mundo reunieron algunos ejemplos de cómo tu vida está ya afectada por ellos.

 

1. La inteligencia artificial decide si vas a tener un trabajo o no.

Las hojas de vida o currículums ahora son más propensos a ser descartados sin siquiera pasar por las manos y la vista de un ser humano.

 

Eso es porque cada día las compañías de selección de personal están adoptando programas de Sistemas de Seguimiento a Candidatos que manejan los procesos de reclutamiento, especialmente el análisis de cientos (o miles) de solicitudes iniciales.

 

En EE.UU. se estima que el 70% de las solicitudes de empleo son filtradas antes de ser analizadas por humanos.

Para las compañías, esto permite ahorrar tiempo y dinero en el proceso de contratación de nuevos empleados.

 

2. ¿Quieres un préstamo? Tu perfil en las redes sociales puede impedírtelo.

Históricamente, cuando alguien solicitaba un préstamo a una entidad financiera, la respuesta estaba basada en el directo análisis de su capacidad de pago: la proporción de la deuda sobre el ingreso de la persona y el historial crediticio.

 

 

Pero ya no es así: la capacidad de pagar un crédito ahora es evaluada por algoritmos que acumulan datos de distintas fuentes, que van desde patrones de compra hasta búsquedas en internet y actividad en redes sociales.

 

El problema es que ese método no tradicional podría recoger información sin el conocimiento o el visto bueno de los posibles beneficiarios del crédito.

 

3. Te puede ayudar a encontrar el amor, pero tal vez no el que estás esperando.

No es una sorpresa saber que las aplicaciones de citas en internet usan algoritmos para juntar a las parejas.

De hecho es parte de su discurso para atraer clientes, especialmente con los servicios premium o de pago.

Sin embargo, cómo lo hacen es mucho menos claro.

 

Especialmente después de que eHarmony, uno de los sitios de citas más exitosos del planeta, revelara el año pasado que ajustaba los perfiles de algunos clientes con la idea de volverlos más "simpáticos" y atractivos.

 

Eso significa ignorar algunas preferencias de los usuarios, como los "me gusta" y "no me gusta". Y esto es bastante molesto para la persona que se tomó el tiempo de responder las 400 preguntas que se piden para crear un perfil en eHarmony.

 

Pero incluso opciones más simples como Tinder, donde las variables son menos (ubicación, edad y preferencias sexuales), no son tan claras o aleatorias.

 

A cualquiera que use esta aplicación se le asigna una "calificación por atracción" secreta -esto es, cuán "deseable" resulta el candidato-, que es calculada por la compañía con la idea de "facilitar mejores emparejamientos".

 

La compañía ha mantenido en secreto esta fórmula, pero sus ejecutivos han dado algunas pistas.

 

Por caso, el número de veces que un usuario es arrastrado hacia la derecha o la izquierda por otros (que es la manera como en Tinder se indica si alguien te gusta o no te gusta) juega un papel muy importante.

 

4. Un programa puede determinar si eres un adicto o puedes tener un seguro médico.

El abuso de opioides vendidos de forma legal o ilegal, es la principal causa de muertes accidentales en Estados Unidos y los expertos en salud a menudo hablan de una "epidemia" en el consumo.

 

Para atacar el problema, científicos y autoridades se están uniendo para crear y ejecutar proyectos basados en datos.

 

Más recientemente, en el estado de Tennessee, el proveedor de seguro médico Blue Cross y la firma tecnológica Fuzzy Logix anunciaron la creación de un algoritmo que analizaba nada menos que 742 variables para evaluar el riesgo de abuso e identificar posibles adictos.

 

Pero por supuesto que eso elevó una discusión ética: los datos analizados incluyen las historias médicas e incluso la dirección de residencia, de los candidatos.

 

El argumento a favor señala que este tipo de intervención puede salvar vidas e incluso puede reducir abusos al sistema.

 

Los adictos a los opioides tienen un 59% más de probabilidades de ser usuarios costosos de servicios médicos.

 

Los defensores del uso de la inteligencia artificial y los algoritmos en el sector señalan que esto podría ayudar a tomar decisiones y reducir el gasto innecesario generado por errores humanos.

 

5. Un computador puede enviarte a prisión.

Jueces en al menos diez estados de EE.UU. están dictando sentencia con la ayuda de una herramienta llamada COMPAS.

Es un algoritmo de evaluación de riesgos que puede predecir las probabilidades de que un individuo haya cometido un crimen.

 

Uno de los casos más famosos que involucra el uso de COMPAS ocurrió en 2013, cuando Eric Loomis fue sentenciado a siete años de prisión por eludir el control policial y manejar un vehículo sin el consentimiento de su dueño.

 

Al preparar la sentencia, las autoridades locales presentaron una evaluación -basada en una entrevista y en la información sobre sus probabilidades criminales- y Loomis obtuvo una calificación de "alto riesgo de cometer nuevos crímenes".

 

Sus abogados rechazaron la condena usando distintos argumentos, uno de ellos el hecho de que COMPAS había sido desarrollado por una empresa privada y la información sobre cómo funcionaba el algoritmo nunca había sido revelada.

 

También reclamaron que los derechos de Loomis habían sido violados, porque la evaluación de riesgo tomó en cuenta información sobre el género y la información racial.

 

De hecho, un análisis de más de 10.000 acusados en el estado de Florida publicado en 2016 por el grupo de investigación ProPublica mostró que las personas negras eran a menudo calificadas con altas probabilidades de reincidir, mientras que los blancos eran considerados menos proclives a cometer nuevos crímenes.

 

Fuente: BBC Mundo

Miembros

AAPRESID

AB MAURI HISPANOAMÉRICA

ABB

ACCENTURE

ACCOR HOTELS

ACINDAR

ADECCO ARGENTINA

ADIDAS

AES

AIR LIQUIDE

ALVEAR PALACE HOTEL

APM TERMINALS

ARIZONA

ASSURANT SOLUTIONS

ATANOR

ATENTO

AVAYA

AVIS BUDGET GROUP

BAKER & McKENZIE

BAKER HUGHES

BANCO CIUDAD

BANCO PATAGONIA

BANK OF AMERICA MERRILL LYNCH

BASF

BAYER

BDO

BERTOTTO BOGLIONE

BMW

BODEGAS ESMERALDA

BRINKS

BROTHER

BTG PACTUAL ARGENTINA

CABOT CORPORATION

CARGILL

CARLSON WAGONLIT

CLUB MED

COLGATE PALMOLIVE

CONSULGROUP

DELAVAL

DELOITTE

DELTA PLUS GROUP

DIAGEO

DLS ARCHER

DUNLOP

EDENRED

EINHELL

ELEMIDIA

EMERSON

EMIRATES AIRLINES

ENAP SIPETROL

EQUIFAX VERAZ

EVONIK

EXOLGAN

FIAT CHRYSLER ARGENTINA

FUNDACION FANGIO

FUNDACIÓN INECO

GARANTIZAR

GEFCO

GRANT THORNTON

GRUPO BERMEJO

GRUPO BIMBO

GRUPO CARDON

GRUPO D´ACCORD

GRUPO EMA

GRUPO LOS GROBO

GRUPO MONARCA

GRUPO PROVINCIA

GRUPO RODOBENS

GRUPO SAN CRISTÓBAL

GRUPO SANCOR SEGUROS

HENKEL

HITACHI VANTARA

HOLCIM

HOSPITAL FAVALORO

HOTEL HILTON

HSBC

IAE BUSINESS SCHOOL

IBOPE INTELIGENCIA

INDRA

INFOBIP

INTEGRATION CONSULTING

INTERBRAND

JAS

JLT

JOHNSON & JOHNSON

KPMG

LA CAJA

LA MERIDIONAL

LOMA NEGRA

LOUIS DREYFUS COMPANY

MARVAL, O’FARRELL & MAIRAL

MASTERCARD

MC DONALD’S

METALFOR

MICHELIN

MOVILE

NATURA

NEORIS

NOKIA

PALACIO DUHAU-PARK HYATT

PANALPINA TRANSPORTES MUNDIALES

PENTECH

PEPSICO ALIMENTOS

PORTER NOVELLI

PPG

PROFERTIL

PUENTE

RABOBANK

RANDSTAD

RE/MAX

RED HAT

RIZOBACTER

ROBERT BOSCH

RUSSELL BEDFORD

SANCOR COOPERATIVA DE SEGUROS LIMITADA

SANOFI

SAP

SOCIEDAD RURAL ARGENTINA

SODEXO

SOUTH AFRICAN AIRWAYS

SPENCER STUART

STEFANINI IT SOLUTIONS

T4F

TAKEDA PHARMA

TELEPERFORMANCE

TELESPAZIO

TETRA PAK

THE LEADING HOTELS OF THE WORLD

TMF

TOTVS

TRAVELPORT

UNIVERSAL ASSISTANCE

UNIVERSIDAD DE SAN ANDRÉS

UNIVERSIDAD FAVALORO

Uruguay

Uruguay

VOLKSWAGEN

WESTROCK

WHIRLPOOL

WILDLIFE CONSERVATION SOCIETY

WINTERSHALL ENERGIA

YARA

ZOETIS

LIDE Argentina - 2016 Todos los Derechos Reservados by