martes, 25 de enero de 2022

Jesús Briones Delgado: La humanización de la era digital. Cómo enfrentarnos a un mundo de algoritmos


 Idioma original: español

Año de publicación: 2020

Valoración: Está bien



El futuro ya está aquí. No lo digo yo, habrán escuchado esta frase a menudo en los últimos meses, incluso años. Es evidente que el futuro siempre llega, y en esta caso parece que lo tememos más que nunca pues conlleva, además de grandes esperanzas para algunos, una de nuestras peores pesadillas: el poder efectivo de la máquina. Dicho así quizá imaginemos un ente humanizado como uno de los personajes de la novela Máquinas como yo, pero, sin irnos tan lejos –aunque los robots con apariencia humana hace tiempo que llegaron para quedarse– piensen en esos algoritmos que afectan directamente a nuestras vidas sin que nadie los haya adquirido en una tienda, al menos conscientemente. Programas que han aprendido a aprender, que utilizan su experiencia para tomar decisiones sin intervención humana. El profano en la materia no puede (no podemos) imaginar qué se cuece tras las afirmaciones de una autonomía que, la verdad, da un poco de vértigo. O bastante.

Este ensayo trata de divulgar los aspectos más básicos de las actuales investigaciones a la vez que reflexiona sobre antecedentes y consecuencias futuras. Cualquiera que lea la prensa a diario no encontrará en él grandes novedades, pero tiene la virtud de condensar en unas pocas páginas tanto datos objetivos como eventualidades y pautas de actuación. También un sinfín de preguntas. ¿Estamos viviendo un auténtico cambio de paradigma o esto que nos parece tan relevante no es más que el principio de una serie de transformaciones que traerán una civilización nueva, tal como ocurrió, por ejemplo, con la implantación de la agricultura o con la revolución industrial, sin ir más lejos? Desde luego, lo digital ha introducido modificaciones en nuestra vida cotidiana y, con mayor o menor intensidad, afecta al planeta entero. Dicho esto, no hay más remedio que señalar lo obvio: lo positivo o negativo no son los avances en sí sino el uso que hagamos de ellos. O que hagan por nosotros, con nuestro consentimiento o sin él.

Llegamos al nudo de la cuestión, para funcionar como tal, la Inteligencia Artificial necesita datos. Y no pocos, datos en cantidades ingentes: “… su combustible son esos paquetes de información: la IA lo que hace es aprender de ellos, de modo que utilizándolos como patrones y aplicando la estadística es capaz de realizar predicciones de futuro. Debemos ser conscientes de que sin big data la IA no existiría”. Es obvio que quien suministra esa enorme cantidad de información que circula por la Red y alimenta algoritmos capaces de generar fortunas de escándalo somos nosotros, y lo hacemos voluntariamente pues la tecnología se ha instalado en nuestras vidas y ya no hay posibilidad de retorno.

Fijémonos en el lado negativo. La IA se alimenta de la información que le suministramos, con ella realiza tareas que hasta ahora eran exclusivamente nuestras. Y las máquinas no cobran, hacen gratis nuestro trabajo pero la materia gris seguimos aportándola nosotros. Esta realidad, que ya es un hecho, en un periodo relativamente corto adquirirá proporciones inimaginables. ¿Qué tal si reclamásemos la parte que nos toca de esa extraordinaria fuente de ingresos? Pero podríamos exigir algo más que la simple retribución económica: intervenir, controlar de alguna forma ese caudal informativo que en ningún caso es inocente. Por muy objetivo que nos parezca siempre tiene un sesgo ideológico que condiciona las decisiones de quienes ostentan el poder. Necesitamos, pues, un cuestionamiento ético. Y esto sí es exclusivamente humano y no podemos hacerlo sin una educación en humanidades. Ahora más que nunca necesitamos el pensamiento crítico, cuestionarnos lo que se nos presenta como incuestionable, mirar más allá de lo evidente. ¿O vamos a dejar en manos de las máquinas incluso las decisiones más polémicas?

En un mundo como el actual, tan saturado de datos, es fácil caer en la trampa y creer que controlamos lo que ocurre. Pero, paradójicamente, la saturación informativa produce desinformación. Si no somos capaces de gestionar todo lo que nos llega y muchas veces es prácticamente imposible distinguir lo verdadero de lo falso, si los contenidos que recibimos han sido seleccionados previamente, si nuestra atención cada vez está más dispersa, quizá lo que nos parece tan objetivo no lo sea tanto. 

“Nuestro acceso masivo a la tecnología responde a algo tan sencillo como el interés de otros: interés por vendernos algo, por convencernos de algo, por convertirnos en algo, por que nos embarquemos en algo…”

Es lógico desconfiar, pero aparte de nuestro propio criterio existen otras fuentes confiables, las de siempre, los auténticos expertos, muy distintos a esos nuevos expertos cuyas intenciones no están nada claras. Y cuidado con servir de portavoces de noticias de dudosa procedencia que las redes sociales multiplican hasta el infinito. Los problemas van en aumento: exceso de control social, facilidad de vulnerar la propiedad intelectual, caos legislativo, prioridad de las leyes del mercado… Quien piense que basta con el control individual para resolverlo se equivoca, cada uno por sí mismo no puede hacer nada, necesitamos que los gobiernos asuman su responsabilidad y legislen. Es cierto que se están dando pasos: códigos éticos, reglamentos de protección de datos etc.

Rebasados sus dos tercios, el ensayo se vuelve redundante, aún así no llega a las cien páginas y su lectura no es especialmente difícil: se trata de un estudio bastante elemental que cumplirá su función solo si encuentra los lectores adecuados a sus características.

No hay comentarios: