Opinión

La Sociedad del Futuro

Inteligencia artificial: ¿de quién son los datos y cómo se usan?

El advenimiento de la inteligencia artificial, que promete enormes beneficios para la sociedad del futuro, nos llena de ansiedad y temores.

Nos maravillamos con los nuevos desarrollos y aplicaciones en la salud, el transporte y las finanzas, al mismo tiempo que nos atemorizamos por el efecto disruptivo de las nuevas tecnologías en los mercados de trabajo, el comercio y la industria.

Tratamos tales eventos como si fueran independientes y ajenos a nuestra influencia. Tal vez sea hora de cambiar esa actitud por un enfoque menos emocional y más razonable, identificando los factores críticos sobre los que debemos actuar.

Los pilares de la inteligencia artificial incluyen: a) Big Data (grandes cantidades de datos recolectados en la web, a través de plataformas como Facebook, Instagram, YouTube y otras); b) algoritmos y c) Deep Learning (que estructura esos algoritmos en capas, creando una “red neuronal artificial” para aprender y tomar decisiones autónomas)

Los “datos” que generamos cuando elegimos entre opciones ofrecidas por las plataformas utilizadas en la web son “minados” por algoritmos (revelando un perfil personal de sexo, edad, preferencias políticas, morales, etc.) que luego permiten a las máquinas “aprender” a predecir resultados.

Es así como un hombre se enteró que su joven hija estaría embarazada, según Yuval Harari. Ella comenzó a recibir ofertas para embarazadas del centro comercial que frecuentaba. Consultada por sus padres, negó tal situación, honestamente. Presentaron entonces una queja a la dirección del centro comercial, solo para enterarse, semanas después, que su hija realmente estaba embarazada.

¿Pueden usarse nuestros datos de una manera que nosotros no autorizamos? Más allá de los dolores de cabeza familiares de la joven mencionada, los “datos” son una fuente de riqueza extraordinaria en el siglo XXI.

Los datos son en la era de la información lo mismo que fue la tierra para las sociedades agrícolas o las máquinas para la era industrial. Las empresas “conducidas-por-los-datos” crecen 8 veces más rápido que el PBI global. Es hora de proteger la “propiedad” de esos datos, preservando la “riqueza” de quienes los generan.

El libro “Argentina 4.0” (2013) anuncia el surgimiento de una “Nueva Economía”, que traerá consigo nuevas reglas y regulaciones. Para creerlo basta ver la nueva legislación de la Unión Europea sobre protección de datos (2018). ¿Han debido ya autorizar a sus plataformas habituales a usar sus datos para accederlas en Europa? La legislación plantea que los datos son de la persona que los genera.

Sin embargo, su valor cotiza en la medida en que los algoritmos los utilizan en grandes volúmenes, de manera “agregada, para alimentar los procesos de “Deep” o “Machine Learning”.

Allí radica otro gran problema. Los “datos” que generamos cargan nuestros prejuicios y demás patrones culturales. Al basarse en ellos, los procesos de inteligencia artificial los reproducen y amplifican.

Los algoritmos deciden, basados en las preferencias que revelamos al interactuar en la web, cual será la próxima película sugerida por Netflix o el siguiente video ofrecido en YouTube. No obstante, el uso masivo de los mismos presentará disyuntivas más complejas.

Lideres políticos culpan a los algoritmos de segmentar sus propuestas mostrándolas solo a quienes ya simpatizan con ellas, impidiéndoles captar nuevos electores

¿Qué pasa cuando una empresa ha contratado más programadores masculinos que femeninos, por ejemplo, y decide recurrir a la inteligencia artificial para los nuevos reclutamientos? Según la experta Kriti Sharma, el algoritmo inferirá que los hombres son mejores que las mujeres en ese campo, basado en las preferencias pasadas de la compañía. Recomendará hombres primero, entonces, para nuevas contrataciones.

Se trata de conductas inaceptables, que no toleraríamos si fueran ejecutada por humanos. No hay porqué aceptarlas de algoritmos.

Habrá que trabajar sobre la “caja negra” de los procesos de “Machine Learning” y sobre las redes neuronales artificiales de “Deep Learning” para impedir que sus predicciones perjudiquen la vida de la gente. ¿Tenemos idea de cuantas decisiones – tales como la prima de seguro que pagaremos o nuestra calificación de crédito – son tomadas por algoritmos cada día basados en nuestro sexo, raza o religión?

En términos de la charla TED de Zeynet Tuvekci: “no podemos tercerizar nuestras responsabilidades morales en máquinas”; la inteligencia artificial “no nos libera de las responsabilidades éticas”.

Woody Allen dice que le interesa el futuro porque allí pasará el resto de su vida. A mi gusta agregar que tenemos la oportunidad de diseñarlo. Hagámoslo. La inteligencia artificial no puede ni debe replicar ni amplificar prejuicios humanos. Regulemos la propiedad de los datos que utiliza y la ética de los algoritmos que gobiernan su proceso de aprendizaje

Los Algoritmos vs el pueblo

26 de febrero, 2023

¿Son los algoritmos un peligro para la democracia? En Argentina 4.0, La Revolución Ciudadana (Prometeo,…

Innovaciones democráticas en la era Digital

15 de enero, 2023

La “democracia digital” refiere a una nueva fase de la práctica democrática, liderada por innovaciones…

Tecnología de impresión 3D en la industria de la construcción

10 de diciembre, 2022

Hace unos días, al recibir un reporte sobre la primera casa modular construida por una…

VER MAS