¿Los algoritmos lo saben todo o deben ayudarles los humanos?
Hay ejércitos formados por las mentes más brillantes de la informática que se han dedicado a incrementar las probabilidades de conseguir una venta. La abundancia de datos y programas inteligentes de la era de Internet ha abierto la puerta al marketing a medida, los anuncios personalizados y las recomendaciones de productos.
Niéguenlo si quieren, pero no es un hecho sin importancia. No hay más que fijarse en la gran restructuración, propiciada por la tecnología, de los sectores de la publicidad, los medios de comunicación y la venta minorista.
Esta toma de decisiones automatizada está pensada para eliminar a los humanos de la ecuación, pero el impulso de querer que alguien supervise los resultados que vomita el ordenador es muy humano. Muchos expertos en datos matemáticos consideran que el marketing es una placa de Petri con pocos riesgos —y, sí, lucrativa— en la que poner a punto las herramientas de una nueva ciencia. “¿Qué pasa si mi algoritmo se equivoca? Que alguien ve el anuncio erróneo”, comenta Claudia Perlich, una especialista en datos que trabaja para una empresa de nueva creación que se dedica a la publicidad personalizada. “¿Qué daño puede hacer? No es un falso positivo de un cáncer de mama”.
Pero el riesgo aumenta a medida que la economía y la sociedad se empapan de los métodos y la mentalidad de la ciencia de los datos. Las grandes empresas y las de nueva creación empiezan a utilizar la tecnología para tomar decisiones relacionadas con el diagnóstico médico, la prevención de la delincuencia y la concesión de préstamos. En estos ámbitos, la aplicación de la ciencia de los datos plantea dudas sobre cuándo hace falta que una persona supervise atentamente los resultados de un algoritmo.
Los macrodatos pueden y deben aportarnos a todos más seguridad, oportunidades económicas y comodidad”
Estas dudas están dando pie a una rama de los estudios académicos conocida como responsabilidad algorítmica. Las organizaciones que velan por el interés público y los derechos civiles están examinando detenidamente las repercusiones que tiene la ciencia de los datos, tanto por sus errores como por sus posibilidades. En el prólogo de un informe del pasado mes de septiembre, Derechos civiles, macrodatos y nuestro futuro algorítmico, Wade Henderson, presidente de la Conferencia por el Liderazgo en Derechos Humanos y Civiles, escribía: “Los macrodatos pueden y deben aportarnos a todos más seguridad, oportunidades económicas y comodidad”.
Fíjense en los préstamos para el consumo, un mercado en el que hay varias empresas de nueva creación especializadas en macrodatos. Sus métodos representan la versión digital del principio más elemental de la banca: conozca a sus clientes. Estas nuevas entidades crediticias especializadas en datos aseguran que, al recopilar datos de fuentes como los contactos de las redes sociales, o incluso observar el modo en que un solicitante rellena un formulario de Internet, pueden conocer a los prestatarios mejor que nunca y predecir si devolverán el préstamo mejor que si se limitasen a estudiar el historial crediticio de alguien.
Lo que prometen es una financiación y una valoración más eficaces de los préstamos, lo que ahorrará a la gente miles de millones de dólares. Pero los préstamos basados en macrodatos dependen de unos algoritmos informáticos que analizan minuciosamente montones de datos y van aprendiendo durante el proceso. Es un sistema muy complejo y automatizado (y hasta sus defensores tienen dudas).
Toman una decisión sobre usted, sin que usted tenga ni idea de por qué la han tomado”
“Toman una decisión sobre usted, sin que usted tenga ni idea de por qué la han tomado”, explica Rajeev Date, que invierte en entidades crediticias que emplean la ciencia de los datos y ha sido director adjunto de la Oficina de Protección Financiera del Consumidor. “Eso es inquietante”.
La preocupación es similar también en otros ámbitos. Desde que su ordenador Watson venciese a los ganadores del concurso televisivo Jeopardy! hace cuatro años, IBM ha llevado la tecnología de la inteligencia artificial basada en datos mucho más allá de los juegos de ingenio. La asistencia sanitaria ha sido uno de los grandes proyectos. La historia del uso de la tecnología “especializada” para contribuir a la toma de decisiones médicas ha sido decepcionante; los sistemas no han sido lo bastante inteligentes ni lo bastante rápidos para ayudar de verdad a los médicos en la práctica cotidiana.
Servicio médico
Pero los científicos de IBM, en colaboración con investigadores de algunos grupos médicos destacados —entre ellos la Clínica Cleveland, la Clínica Mayo y el Centro Oncológico Memorial Sloan Kettering—, están consiguiendo avances. Watson es capaz de leer documentos médicos a una velocidad a la que resultarían incomprensibles para los humanos: miles de ellos por segundo, en busca de indicios, correlaciones e ideas importantes.
Se ha usado el programa para formar a los estudiantes de Medicina y está empezando a emplearse en entornos clínicos oncológicos para proporcionar diagnósticos y recomendaciones de tratamiento, como si fuera un ayudante digital ingenioso.
IBM también ha creado un programa informático llamado Watson Paths, una herramienta visual que permite al médico ver las pruebas y las deducciones en las que Watson se ha basado para hacer una recomendación.
“No basta con dar una respuesta sin más”, afirma Eric Brown, responsable en IBM de la tecnología relacionada con Watson.
Watson Paths apunta a la necesidad de que haya alguna clase de traducción máquina-humano a medida que la ciencia de los datos progrese. Como dice Danny Hillis, experto en inteligencia artificial: “La clave que hará que funcione y resulte aceptable a ojos de la sociedad será la historia que cuente”. No una narración exactamente, sino más bien una información de seguimiento que explique el modo en que se ha tomado una decisión automatizada. “¿Cómo nos afecta?”, pregunta Hillis. “¿Hasta qué punto es una decisión de la máquina y hasta qué punto es humana?”, añade.
Uno de los planteamientos es que el humano siga formando parte del proceso. Los datos y los programas informáticos dan vida a las nuevas entidades crediticias que emplean la ciencia de los datos. Pero, en San Francisco, una de estas empresas de nueva creación, Earnest, hace que al menos uno de sus empleados revise las recomendaciones predictivas del programa, aunque es raro que rechace lo que dictan los algoritmos. “Pensamos que el factor humano siempre será una parte importante del proceso, ya que nos permite asegurarnos de que no nos equivocamos”, dice Louis Beryl, cofundador y consejero delegado de Earnest.
Pero esa postura, opinan otros, no es más que una ilusión reconfortante; puede que sea buen marketing, pero no necesariamente buena ciencia de los datos. Afirman que el hecho de concederle a un humano capacidad de veto dentro de un sistema algorítmico introduce un sesgo humano. Al fin y al cabo, lo que promete la toma de decisiones fundamentada en los macrodatos es que las decisiones basadas en los datos y el análisis —más ciencia, menos intuición y menos arbitrariedad— proporcionarán mejores resultados.
No obstante, aunque el optimismo esté justificado, hay un reto importante, dada la complejidad y la opacidad de la ciencia de los datos. ¿Podrá una tecnología que promete grandes beneficios medios proteger lo suficiente al individuo de una decisión misteriosa y caprichosa que podría tener un efecto duradero en la vida de una persona?
Una posible solución, según Gary King, director del Instituto de Ciencias Sociales Cuantitativas de Harvard, sería que los creadores de los algoritmos que otorgan puntuaciones los retoquen no para obtener el máximo beneficio o rentabilidad, sino para que el valor que conceden a la persona sea algo mayor, lo que reduciría el riesgo de equivocarse.
En el sector bancario, por ejemplo, se podría ajustar un algoritmo para que redujese la probabilidad de catalogar erróneamente de aprovechado al solicitante de un préstamo, aunque ello conlleve que la entidad crediticia acabe concediendo más préstamos incobrables.
“El objetivo”, dice King, “no es necesariamente que un humano supervise el resultado a posteriori, sino mejorar la calidad de la clasificación de los individuos”.
En cierto sentido, un modelo matemático equivale a una metáfora, una simplificación descriptiva. Filtra, pero también distorsiona un poco. Por eso, a veces, un ayudante humano puede aportar esa dosis de datos matizados que se le escapa al autómata algorítmico. “A menudo, los dos juntos pueden funcionar mucho mejor que el algoritmo por sí solo”, afirma King.
Steve Lohr, columnista de New York Times especializado en tecnología, es el autor de Data-ism.
© 2015 New York Times News Service
Traducción de News Clips.
@BrenpCom
#Web #Ecuador