Close

Su majestad, el Algoritmo: La era de la Inteligencia artificial

Los algoritmos atraviesan nuestra vida. Cada vez más comportamientos de todos los días  se encuentran vinculados a dispositivos tecnológicos y aplicaciones. Muchas de las  decisiones que tomamos, desde qué camino seguir a la mañana hasta qué pedir en el  almuerzo o con quién salir un fin de semana están mediadas por el uso de plataformas. En esta nota, nuestra especialista en IA y protección de datos, Melisa Bargman, nos cuenta sobre la importancia del Big Data en la sociedad en red.

La información que vemos en la pantalla es seleccionada, filtrada y clasificada de acuerdo a  los datos que nosotros mismos proporcionamos: lo que consultamos en los buscadores de  Internet, los lugares en los que vivimos o visitamos, las publicaciones a las que  reaccionamos, las series que nos entretienen. Somos generadores de datos.  

Al tratarse de un mercado que tiende a formar monopolios ¿hasta qué punto se aseguran  niveles de innovación y actualización suficientes que logren mejores/mayores estándares de  seguridad y de experiencia del usuario si no hay competencia? 

La propuesta es poder configurar y conformar un entorno legal que garantice la protección de la intimidad de los usuarios sin vulnerar sus derechos en un mundo definido por una nueva etapa de desarrollo económico, la Sociedad del Conocimiento o Era Digital en la que según Henoch Aguiar, “el principal generador de valor económico es el saber, el valor agregado intelectual a las cosas y a las acciones”. Esto implica utilizar a la tecnología como aliada facilitadora de procesos y soluciones, y no como una enemiga cuyo fin último es el robo y venta de datos.

Inteligencia Artificial: nadie sabe de mí y yo soy parte de todos

La inteligencia artificial (IA) es una disciplina que tiene impacto en áreas y sistemas  complejos tan variados como vehículos autónomos, sistemas de recomendación, toma  inteligente de decisiones y búsqueda en internet. Existen desarrollos de IA en asistentes  personales como Alexa y Siri, aplicaciones médicas inteligentes de diagnóstico de  enfermedades y vehículos autónomos que interpretan información del contexto e imitan las  capacidades humanas de conducción.

El término “Inteligencia Artificial” fue acuñado por primera vez en 1956 por John McCarthy,  profesor de Dartmouth College que la definió como la “ciencia e ingeniería de crear  computadoras inteligentes”.

La IA representa la teoría y desarrollo de sistemas computacionales que realizan tareas que  requieren de inteligencia humana. Machine learning es una metodología que se remite al  diseño de una secuencia de acciones tendientes a resolver un problema. Este proceso es más conocido como algoritmo y se caracteriza por ser optimizado  recurrentemente a través de la experiencia recolectada, aprendiendo del error, con o sin  supervisión humana. El algoritmo generaliza “comportamientos” a partir de los datos de  entrada: cuánto más datos, se espera que mejor sea la generalización. Los algoritmos de  aprendizaje automático se modifican a partir de los datos que recibe.

No es casualidad que estemos viviendo una explosión en la generalización del aprendizaje automático ya que por primera vez en la historia la sociedad acumula más datos de los que  está en condiciones de procesar y analizar. Esta excepcionalidad permite revertir el  proceso de investigación y trabajar sobre la información ya acumulada “haciendo hablar a  los datos” en lugar de tener que recabarlos como punto de partida. Lo que antes se  almacenaba en gigantescas bibliotecas o infinitas cajas de archivos, ahora se resguarda en  complejos entramados de servidores como Amazon o Google: lo que se conoce como “la  nube”. La nube es un dispositivo de almacenamiento global de información, disponible para el uso  de cualquier usuario. Proviene del cloud computing, definido como la prestación de  un servicio de alojamiento y procesamiento masivo de datos en servidores, archivos  virtuales a través de Internet.

La infraestructura para la gestión y mantenimiento de la nube está en manos de empresas  privadas (en su mayoría provenientes de Estados Unidos) o de los estados como sucede en  China. Hay un tercero que almacena esa información (y que por lo tanto puede acceder y reproducir). Los usuarios no utilizan el propio espacio de almacenamiento de su dispositivo.  Estos servicios que se presentan como gratuitos tienen un costo: los datos que ceden los  usuarios, registros voluntarios (publicaciones compartidas en redes, ubicaciones habilitadas  o suscripciones) e involuntarios, casi invisibles como búsquedas y cookies.

El uso organizado de estos datos y su análisis a partir de algoritmos permiten detectar  conexiones y construir patrones de comportamiento, pensamiento o consumo, idea que da  lugar al surgimiento de la noción de Big Data.

Los Big Data constituyen una acumulación espontánea de información. Se diferencian de  otros métodos tradicionales de recolección de datos como las encuestas que tienen una  estructura con objetivos predefinidos y se aplican sobre un público representativo de la  muestra. Los Big Data son el resultado de otra acción. Por  ejemplo, cuando se lee un artículo periodístico se generan metadatos: sobre qué noticias el  usuario centra su interés, a qué medio acude para informarse, qué artículos sigue y hasta  dónde, a qué hora del día y cuánto tiempo permanece en cada nota.  

Para caracterizar el fenómeno de Big Data, Walter Sosa Escudero aplica al mecanismo de  las cinco V: Volumen, Velocidad, Veracidad, Variedad y Valor: 

Volumen: desde que las interacciones humanas y el consumo de bienes y servicios  se llevan a cabo en lo que Manuel Castells denomina la “sociedad en red” mediada por plataformas, los datos dejan de  ser almacenados en formatos físicos y empiezan a ser registrados en forma  automática, a través de máquinas con capacidad de almacenamiento creciente. Los costos de almacenamiento caen de manera acelerada, mientras que el poder de análisis de datos crece exponencialmente (tanto desde el software como el hardware). En la industria informática tal como expone Aguiar se aplica la Ley de Moore a partir de la cual “cada año y medio, a igual precio, los chips y las computadoras que los utilizan pueden almacenar el doble de información”.

Velocidad: es el ritmo con el que se mueven los flujos de datos, al punto de estar  disponibles en tiempo real. Las formas de consumo de cultura y de interacción entre  las personas a través de plataformas exigen inmediatez como en el envío y  recepción de mails o mensajes de Whatsapp. Mayor es la exigencia por la  instantaneidad en eventos transmitidos en vivo en los que millones de paquetes de  datos de audio y video deben llegar coordinados a millones de personas.  Representa un desafío de mejora permanente de las tecnologías para expandir los  límites de incorporación y circulación de datos. 

Veracidad: La multiplicación de los datos da lugar a cuestionarse la calidad de la  información: “el incremento de la cantidad le franquea la puerta a la inexactitud”. Implica un desafío en la recolección de los  datos. Debe haber instancias de verificación de su nivel de confiabilidad para decidir  si pueden ser incluidos en una investigación. Se trata de datos ruidosos y  espontáneos que no se generan a partir de una base teórica ni sobre muestras  definidas metodológicamente. Es la cualidad menos manejable ya que la propia lógica de la velocidad y el fácil acceso a las redes hace cuestionar la información. 

Variedad: En interacción con plataformas, los usuarios generan datos diversos: tuits,  fotos, archivos de texto, videos, audios, posiciones geográficas. Las sociedades  compilaban su información en fuentes estructuradas como archivos públicos,  expedientes, bibliotecas, agendas, álbumes de fotos. Con el desarrollo de las  tecnologías, se configuró un mundo de datos desestructurados, sin formato  específico. Esto permite recolectar cualquier tipo de información pero, al contar con  muy poca sistematicidad, se deben idear procedimientos para organizar los datos y  darles mayor coherencia. 

La conjunción de estas cuatro características da lugar al Valor que adquiere toda  esta información a la hora de ser interpretada. Los datos que se pueden tomar de un  dispositivo móvil son muchos, pero su valor viene dado por el uso que se hace de  los mismos. Por ejemplo, las ubicaciones en tiempo real de los celulares pueden ser  utilizadas en aplicaciones de mapas de tránsito para detectar embotellamientos o  cortes. 

Poder aprender y generalizar a partir de los datos construye nuevas perspectivas para  resolver problemas. Sin embargo, las soluciones serán tan efectivas como lo sean los datos.  Si tienen sesgos, el resultado de los algoritmos se verá afectado.  

El algoritmo no puede ser una caja negra en  la que confiar ciegamente: aunque los algoritmos parezcan científicos y objetivos, están  impregnados de subjetividad y no son más que “opiniones embebidas en códigos” (O´Neil,  2017, p. 8). No son mejores que los seres humanos ya que están hechos a la medida de la  humanidad. 

 ¿Solistas, dúos o cuartetos?

Sin políticas que aseguren la competencia, la innovación en el campo de IA tiende a  conformar mercados oligopólicos o monopólicos. 

El mercado mundial está dominado por las empresas estadounidenses Google, Amazon,  Facebook, Apple y Microsoft (GAFAM) y las asiáticas Baidu, Alibaba, Tencent y Xiaomi  (BATX). La mayor parte de los desarrollos en procesamiento de datos está concentrada en  estas empresas, que además tienen el poder de identificar y adquirir potenciales  competidores.

¿Cual es el problema de la formación de semejantes monopolios en la economía de las  plataformas? Como tienen un rol cada vez más crítico en la interacción social, la vida  académica y el consumo de productos y servicios, los usuarios están cada vez más  dispuestos a resignar su información ya que no consideran viable la posibilidad de  abandonar las plataformas. Esto mismo sucede para las empresas más pequeñas que deben aceptar  condiciones abusivas ya que les resulta inevitable estar en los acotados canales por los que  circulan millones de personas.

Las plataformas se construyen como intermediarias que vinculan  espectadores con entretenimiento, compradores con objetos físicos, trabajadores con  empresas. Según Nich Srnicek, el éxito de las plataformas radica en el efecto en red: “mientras más  numerosos sean los usuarios que hacen uso de la plataforma, más valiosa se vuelve esa  plataforma para los demás”. Cuanta más gente use un producto o servicio, más  valioso será para otros usuarios. Una persona que busca un producto ingresa en Amazon  porque encuentra la mayor oferta de compras y marcas; alguien interesado en conectarse  con su entorno o establecer nuevos vínculos sociales, se registrará en Facebook o  Instagram ya que concentran millones de usuarios; si necesita buscar la dirección de un  determinado lugar, accederá a Google que cuenta con millones de colaboraciones de otros  usuarios. El valor de las plataformas que se dedican a la venta de publicidad, principalmente  Google y Facebook, aumenta con el número de usuarios. Los anunciantes obtienen acceso  a una base de consumidores más grande y, por lo tanto, a un tesoro mayor de datos de  potenciales clientes. Hay una lógica en la que los usuarios generan más usuarios que  buscan, compran, publican y contribuyen al caudal de datos que los algoritmos procesan  para perfeccionar su performance. Así, el autor concluye que el mercado de las plataformas  tiende naturalmente a la monopolización. 

Scott Galloway reforzará esa idea al caracterizar a las plataformas como “empresas  Benjamin Button” que “envejecen en sentido inverso”. A mayor tiempo de uso  de una plataforma, más amplio el volumen de datos aportados por los usuarios y mejores  las capacidades de procesamiento de los algoritmos que subyacen en la base de estas  estructuras. 

Estas plataformas tienden a otro comportamiento que  potencia los monopolios: la compra de proyectos innovadores que pueden llegar a poner en a que su posición dominante. Las adquieren para incluirlas entre sus funcionalidades y  también para cerrarlas o discontinuar los productos subyacentes.  El acceso superior a datos que tienen estas empresas, a través de su ingeniería y sus  bases de millones de usuarios, hace que identifiquen y adquieran rivales al principio de su  ciclo de vida, antes de que ninguna autoridad pública pueda identificar su rápido crecimiento  y prohibir esa compra por ser anticompetitiva. 

La concentración en el mercado de datos afecta de lleno en la libertad de expresión. ¿Las  plataformas deben ser responsables por el contenido que circula a través de ellas? Si la  respuesta es sí, ¿está bien que tengan el poder de decidir qué contenidos se muestran y  cuáles no?, ¿no podría considerarse como una censura previa?, ¿qué criterios hacen que  un contenido publicado por un usuario en una red sea dado de baja?, ¿quién define esos criterios?, ¿puede una plataforma censurar a un usuario de manera indefinida?  

Aunque se empleen personas para moderar contenidos, ¿qué se  toma como verdad?, ¿bajo el lente de qué actores se define qué es la verdad o qué  publicación es de mal gusto? Si la decisión está en manos de empleados de empresas  privadas como Facebook o Google ¿qué garantiza que haya diversidad de pensamientos en  las plataformas? Si efectivamente una publicación se da de baja en una plataforma por ser falsa, ¿qué impacto tiene en las millones de personas que efectivamente pudieron acceder al contenido antes de fuera inhabilitado? 

¿Por qué las autoridades regulatorias no tomaron  medidas para actuar sobre estas lógicas en un mercado tan sensible? Es difícil encontrar  una única explicación, pero existen factores que influyen sobre la regulación estática.  

En primer lugar, hay que tener en cuenta que estas empresas tienen un poder de lobby sin  precedentes. Los Estados mismos utilizan las plataformas para su propio funcionamiento, por ejemplo,  para la publicidad de sus políticas como parte de las estrategias de comunicación y el uso  de servicios en la nube para almacenar información. Amazon Web Servicies presta servicios  de cloud computing para el sector público. En el sitio web principal de AWS, la empresa  afirma que trabaja con más de 6500 agencias gubernamentales sólo en Estados Unidos. En un informe llevado adelante por el Subcomité Derecho Antimonopolio, Comercial y Administrativo de  los Estados Unidos respecto al nivel de competencia en línea, desde el año 1998, las GAFA, han adquirido en total  500 empresas, sin que las autoridades hayan bloqueado ninguna transacción por cuestionar  la limitación en el mercado que eso significaría.

En segundo lugar, la complejidad inherente de los algoritmos hace que carezcan de claridad  técnica y transparencia que permita la auditoría por parte de las autoridades. Ni los propios  directores de estas empresas pueden explicar el funcionamiento de los algoritmos detrás de  sus prácticas. Poder entender su funcionamiento y sobre todo, detectar maniobras  anticompetitivas como la autopreferencia, implica contar con las herramientas técnicas y el  conocimiento para hacer un análisis pertinente que funcione como prueba de  intencionalidades deshonestas.  

Por último, existen factores geopolíticos que pesan en el margen de acción de los  reguladores. Separar estas empresas o someterlas a un control que reduzca su ritmo de  crecimiento puede hacer que pierdan relevancia y protagonismo no sólo a nivel nacional  sino mundial. ¿En qué posición quedarían respecto de la expansión creciente de las  plataformas de China? No hay que olvidar que en ese país también hay un mercado digital  concentrado y manejado por el propio Estado que, lejos de abogar por la competencia, se  apoya en la concentración para afinar y perfeccionar los recursos de vigilancia de su  sociedad. 

Detrás de estas prácticas monopólicas, hay pequeñas empresas, negocios locales,  emprendedores, puestos laborales que están en peligro. Quedan a merced de actores  infranqueables que pueden decidir “bajarles la palanca” dentro de sus interfaces,  borrándolos del territorio por el que circulan miles de millones de usuarios. 

La Inteligencia Artificial ha llegado para quedarse y evolucionará exponencialmente.  Potenciará las capacidades de unos pocos para acceder a más datos, filtrar más  contenidos, diseñar publicidad más segmentada, vigilar a la población de manera más  selectiva. ¿Cómo se puede revertir el proceso para empoderar a la ciudadanía, la  democracia y el acceso a la información? Entender la Inteligencia Artificial significa entender  el pensamiento y el comportamiento humano. Implica comprender cómo aprende la  humanidad para extrapolarlo a modelos y reglas. Una humanidad que tiene pasiones,  defectos, ambiciones, enigmas, errores y aciertos que las ciencias hasta el día de hoy  todavía intentan desentrañar. ¿Puede un algoritmo representarnos como sociedad? Esa  respuesta aún no se encuentra ni en el buscador de Google.

 

Este artículo fue publicado originalmente en el Módulo de Políticas TIC del Observatorio de Políticas Públicas de la UNDAV y es producto de la tesina de grado de la autora, la cual que puede leerse en el Repositorio Digital de la Facultad de Ciencias Sociales de la UBA.

Melisa Bargman
+ posts

Licenciada en Comunicación y Docente en la Facultad de Ciencias Sociales de la UBA. Especializada en la divulgación e investigación del impacto de las nuevas tecnologías en la sociedad, la regulación y el ámbito educativo.

scroll to top