¿Son los algoritmos un peligro para la democracia?
En Argentina 4.0, La Revolución Ciudadana (Prometeo, 2013), planteamos que la democracia en la era digital, crecientemente influida por las nuevas tecnologías, necesitaría algún tipo de “mediación” del discurso público.
Los algoritmos están desempeñando esa tarea. ¿Son ellos las “instituciones” de la democracia digital? Al fin de cuentas las nuevas tecnologías depositan en ellos el poder de estructurar conductas, influenciar preferencias, generar patrones de consumo, etc.
Un algoritmo es la fórmula usada por un motor de búsqueda (Google, Bing, etc.) para ordenar las respuestas que darán a los pedidos de información que les formulamos. Determinan el ranking de aparición de un sitio web o una noticia frente a una consulta efectuada por el usuario.
La mediación de los algoritmos en su versión actual, sin embargo, no parece ser el tipo de intermediación que fortalece la democracia.
En 2016, cuando comenzaba la carrera para las elecciones federales alemanas del año siguiente, la ex-Canciller Ángela Merkel, advertía los peligros que entrañaban los algoritmos, haciéndolos responsables por distorsionar la percepción de los votantes, limitando la información que recibían en base a sus búsquedas previas en los motores de internet, su ubicación geográfica, etc.
Aludía de ese modo al rol de las llamadas “burbujas de filtro” y las “cámaras de eco” de los buscadores de internet. “Este es un desarrollo al que debemos prestar cuidadosa atención” decía, porque “una democracia saludable depende de que la gente se enfrente a ideas opuestas”.
Por esos años, estalló el escándalo de Cambridge Analytica, una empresa de análisis de datos que contribuyó al triunfo del Brexit cosechando información de los usuarios de Facebook (sin su consentimiento) para dirigir las noticias que recibían o para sondearlos psicológicamente de manera solapada. La campaña de Donald Trump (2016) fue señalada por usar las mismas tácticas.
El peligro que representa el uso de algoritmos ha crecido desde entonces, al compás de versiones de inteligencia artificial cada vez más poderosas, en base al crecimiento exponencial del aprendizaje automático (conocido como “machine learning”) y el uso de Big Data.
Yuval Harari define el fenómeno como dataísmo o “culto de los datos” (Homo Deus, 2017), que conviertió “un descubrimiento limitado en el campo de las ciencias de la computación en un cataclismo que sacude al mundo”. Para el datismo, “los organismos son algoritmos” que procesan datos. Las colonias de bacterias, los bosques y las ciudades son sistemas de procesamiento de datos.
Incluso las formas de organizar la economía (a través del mercado o con planificación del estado) y los sistemas políticos (democracias o autocracias) son sistemas de procesamiento de datos que compiten entre sí con la finalidad de predecir el comportamiento de los sistemas que gobiernan.
En un libro seminal (La era del capitalismo de vigilancia, 2019), Shoshana Zuboff lleva el debate más allá, planteando el surgimiento de “un nuevo orden económico que reclama la experiencia humana como materia prima gratuita para prácticas comerciales ocultas de extracción, predicción y venta” y una “lógica económica parasitaria en la que la producción de bienes y servicios se subordina a una nueva arquitectura global de modificación de conductas”.
Solo unos pocos años después de que Merkel se quejara de que los algoritmos elegían los resultados que nos mostraban primero como resultado de nuestra búsqueda de internet, limitando la información que recibimos en base a nuestras preferencias, Zuboff plantea que la nuevas tecnologías pueden ir más allá y mostrarnos información con la finalidad de modificar nuestras conductas y determinar nuestras preferencias.
Anita Gurmurthy y Deepti Bharthur advertían en su “paper” (Democracia y el giro algorítmico, 2018) que los ciudadanos, “manipulados magistralmente por tácticas basadas en datos…se encuentran cada vez más ubicados en los lados respectivos de una división ideológica”.
Más recientemente, los profesores Birgirt Stak y Daniel Stegmann (con Melanie Magin y Pascal Jürgens) publicaron un trabajo que trata de responder la pregunta con la que comenzamos este artículo (“¿Son los algoritmos una amenaza para la democracia? El surgimiento de intermediarios: un desafío al discurso público”, 2020)
Estiman allí que “las redes sociales facilitan la diseminación de noticias falsas, y discursos de odio”, aunque “la exposición de los individuos a estos fenómenos es limitada”. Para ellos, “es probable que se exageren los temores de que la personalización algorítmica conduzca a burbujas de filtro y cámaras de eco, pero el riesgo de fragmentación y polarización social permanece”.
Es probable que en 2023, el progreso tecnológico haya aumentado los riesgos que señalan estos autores, que concluyen su “paper” proponiendo una “agenda de investigación sobre la gobernanza de las plataformas” digitales.
Se trata de la misma advertencia expresada en “Argentina 4.0 La Revolución Ciudadana” respecto a la necesidad de encontrar mecanismos de mediación del discurso público en la era digital.
No caben dudas de que la democracia digital ha puesto al concepto mismo de ciudadanía en una encrucijada. Los autócratas han aprendido como usar las nuevas tecnologías para polarizar votantes y mantener el poder.
Por eso es clave regular la capacidad de las grandes plataformas digitales para influir en la opinión pública (o al menos entenderla mejor), con el fin de preservar la libertad de elección de los ciudadanos y el funcionamiento saludable de la democracia.
La “democracia digital” refiere a una nueva fase de la práctica democrática, liderada por innovaciones destinadas a mejorar la capacidad de la política para ofrecer soluciones prácticas a problemas concretos, usando las nuevas tecnologías de información y telecomunicaciones.
La oleada de manifestaciones de protesta alrededor del mundo y el creciente número de autodeclarados “indignados” apunta a ese déficit del sistema democrático, cada vez más percibido por un número creciente de ciudadanos.
En los últimos años se habló mucho sobre una “recesión democrática” que domina la política mundial, un concepto acuñado por primera vez por Larry Diamond en 2009. Mucho ha pasado desde entonces.
El último informe de Freedom House (2022) afirma que “…la amenaza actual a la democracia es producto de 16 años consecutivos de declive de la libertad global…60 países sufrieron caídas durante el año pasado, mientras que solo 25 mejoraron. Hoy en día, alrededor del 38 por ciento de la población mundial vive en países no libres, la proporción más alta desde 1997. Solo alrededor del 20 por ciento ahora vive en países libres”.
No sorprende entonces, que las sociedades de todo el mundo estén probando innovaciones democráticas. Es la misma idea que promovemos desde este blog y las páginas de “Argentina 4.0 La Revolución Ciudadana” (2013), bajo el concetp de Democracia Digital, refiriendo a las contribuciones que las nuevas tecnologías pueden realizar a la renovación democrática, en una era dominada por la digitalización de cada aspecto de nuestra vida.
La mayoría de los esfuerzos se centran en fortalecer los programas de participación comunitaria con décadas de antigüedad, apalancándolos en las posibilidades que ofrecen las nuevas tecnologías.
De hecho, las “asambleas de ciudadanos” y los “paneles” han estado allí por algún tiempo. Ahora se implementan regularmente a través de técnicas de selección estratificada, para brindar a todos los ciudadanos las mismas oportunidades de participación y asegurar la representación de diversos sectores de la sociedad. Sus debates están muy estructurados en torno a mandatos preestablecidos o elaborados procesos institucionales formales.
En el corazón de estos procesos se encuentra la necesidad de educar al soberano, al menos sobre el tema en discusión. Este es precisamente el concepto incorporado en el enfoque del jurado de ciudadanos, basado en la idea de que grupos de ciudadanos comunes pueden crear soluciones poderosas para los desafíos más grandes de la actualidad, cuando se les brinda el conocimiento, los recursos y el tiempo.
El Centro para Nuevos Procesos Democráticos (antiguo Centro Jefferson) fue pionero en el concepto, estructurándolo en torno a fases que incluyen: a) comprensión del desafío; b) diseñar los procesos; c) invitar a la comunidad; d) seleccionar a los participantes; f) proporcionar información; g) facilitar la deliberación; h) crear recomendaciones e i) ampliar y compartir
Estas “innovaciones democráticas” tienen lugar principalmente en las democracias occidentales. Un proyecto interesante dirigido por el European Democracy Hub (informado por Carnegie Europe) explora las innovaciones probadas en otras regiones, “agrupadas en tres grupos: 1) esfuerzos para extender la participación democrática dentro de los procesos consultivos existentes; 2) formas de participación más abiertas que involucren a un número relativamente grande de ciudadanos; y 3) intentos de vincular la participación ciudadana con otros actores políticos.
Entre los primeros, por ejemplo, el informe cita “procesos de petición en línea” que, si bien no incluyen instancias deliberativas, facilitan la participación ciudadana en la construcción de la agenda pública (Corea del Sur) o instancias y plataformas participativas para permitir la participación y deliberación ciudadana. sobre prioridades y desempeño del gobierno a nivel municipal (Georgia y Nigeria).
Bajo el segundo, los mecanismos abiertos de participación de alguna manera pierden los límites de las técnicas de selección estratificada (mencionadas anteriormente) para crear un espacio más amplio para la interacción entre los gobiernos y las organizaciones de la sociedad civil (OSC) (principalmente en América Latina e India).
El último grupo se refiere a los programas se centran en “fomentar una interacción más sistemática entre la ciudadanía en línea y la toma de decisiones de la autoridad pública”, incluidos los jurados de ciudadanos (Malawi, Nigeria, Ghana, Corea del Sur, Taiwán, Macedonia del Norte, América Latina).
Las asambleas de ciudadanos sobre atención social, el diálogo sobre el clima rural de los condados, los jurados de ciudadanos sobre inteligencia artificial o el intercambio de datos sobre la pandemia, los parlamentos de aldeas inclusivos, las auditorías sociales y otras innovaciones están construyendo un cuerpo de nuevas experiencias democráticas. Son experiencias valiosas en la medida en que apuntan a fortalecer la representación democrática más que a sustituirla.
Si bien es posible que todavía estemos bastante lejos de cerrar la brecha entre los ciudadanos y sus representantes, un fuerte y renovado impulso de participación ciudadana “impulsado por la tecnología” está obligando a las élites políticas de todo el mundo a innovar y facilitar la participación de la gente común.
Como se proyectaba en escritos de hace una década (incluyendo Argentina 4.0 La Revolución Ciudadana), los gobiernos locales están ocupando un lugar central en el proceso y siguen siendo la mejor esperanza para una renovación democrática genuina y duradera.
Hace unos días, al recibir un reporte sobre la primera casa modular construida por una impresora 3D (con materiales biodegradables) en USA, me pregunté cuan relevante era esta noticia en el cambio de paradigma que enfrenta la industria de la construcción.
Hace tiempo que ese sector usa impresoras 3D. Desde los humildes comienzos, a mediados de los 1980s, cuando los diseñadores creaban un modelo que luego se imprime capa por capa en un objeto físico (usando láser apuntado a un fotopolímero líquido para solidificarlo, un proceso conocido como “stereolithography – SLA”), el uso de esas impresoras ha recorrido un largo camino.
A comienzos de los 2000s la empresa Autodesk presenta un “White Paper” titulado “Building Information Modeling (BIM)” que, recogiendo el trabajo de investigación de las décadas anteriores, define el proceso holístico de crear y administrar información para un activo construido, “basado en un modelo inteligente y habilitado por una plataforma en la nube”.
Este modelo “integra datos estructurados y multidisciplinarios para producir una representación digital de un activo a lo largo de su ciclo de vida, desde la planificación y el diseño hasta la construcción y las operaciones”.
En 2006, la Universidad de California del Sur (USA) presenta el “Contour Craft System (CCS)”, con una impresora que funciona como la que tenemos en el escritorio, utilizando una grúa para realizar la impresión y el hormigón para colocar los elementos estructurales del edificio. Por esa época el MIT (USA) practica impresión 3D utilizando un brazo robótico grande y controlable para rociar materiales, como concreto, a través de boquillas tradicionales de construcción.
A mediados de los 2010s aparecen proyectos de empresas holandesas. Una de ellas utiliza un brazo de impresión gigante para construir una casa típica utilizando plástico. Otra imprime un puente de acero inoxidable totalmente funcional y lo coloca sobre uno de los canales más antiguos y famosos de Ámsterdam, utilizando tecnología de impresión de eje múltiple (MX3D).
En esos años una empresa americana se asocia con el Laboratorio Nacional Oak Ridge (de Departamento de Energía de US) para producir viviendas modulares eficientes impresas en 3D con una combinación de sistemas de energía renovable y gas natural.
Los chinos también dan a conocer sus proyectos en la misma época. Anuncian la “impresión” de una mansión de dos pisos en 45 días y de 10 casas en 24hs.
Desde 2018 proliferan numerosos proyectos. Apis Cor, BatiPrint, Black Buffalo 3D, COBOD, Constructions 3D, Contour Crafting, Cybe Construction, Icon, Mighty Buildings, Mud Bots, SQ4D, Wasp, XtreeE, son algunas de las compañías que los llevan adelante.
En 2021, el “Proyecto Milestone” de la Universidad de Tecnología de Eindhoven (Países Bajos) entregó la primera de 5 casas que tiene planeado construir en la ciudad, con un coeficiente de energía de 0,25, considerado sumamente eficiente.
Aunque la cantidad de proyectos crece constantemente, está claro que la impresión 3D no es aún la corriente dominante en la industria de la construcción. Sin embargo, las proyecciones para los próximas años parecen señalar que nos encaminamos sostenidamente a un punto de inflexión.
Distintos reportes indican que el uso de BIM entre los arquitectos crece constantemente y podría abarcar el 80 o 90% de sus proyectos hacia 2024. Porcentajes similares se reportan para el uso de BIM entre ingenieros estructurales y civiles para el mismo año. Entre los contratistas el porcentaje estimado de uso actual de BIM, de alrededor del 40%, podría crecer hasta alcanzar el 70% de los proyectos en los que trabajen en 2024.
Las diferencias en el retorno de inversión percibido en las distintas ramas de la construcción (arquitectos, ingenieros o contratistas) explica las proyecciones reportadas, por lo que una mayor ayuda para entender y utilizar BIM entre los profesionales podría aumentar el retorno percibido y su utilización.
La casa construida en Maine, por el Grupo de Investigación del Centro de Estructuras y Compuestos Avanzados (ACSS), de la Universidad de ese Estado, que me llevó a escribir estas líneas, se llama BioHome3D y consta de 4 módulos.
Las paredes, el suelo y el techo estánhechos de fibra de madera y biosmol. La casa es altamente aislante y reciclable y solo tardaron 12 horas en construirla. Gagadget.com reporta que un solo electricista tardó dos horas en conectar la electricidad.
Hay quienes señalan que las casas impresas en 3D podrían ser una solución para reducir el costo de la vivienda y la contaminación de la industria d ela construcción. Considerando la velocidad a la que se desarrollan las nuevas aplicaciones en esta industria es posible que tengamos muchas más noticias que nos estimulen a reportar novedades en los próximos 5 años.
En 2013, el Profesor Mark Post, de la Universidad de Maastrich, que trabajaba en la reparación de los tejidos del corazón, lideró una experiencia que marcaría un hito: logró producir la primera hamburguesa de carne cultivada en un laboratorio.
Luego de dos años de trabajo y, a un costo de U$ 325.000 dólares, convirtió de esa manera un argumento típico de una película de ciencia ficción en una sólida realidad científica.
Desde 2010, prominentes tecnólogos y empresarios visionarios se han lanzado al desarrollo de una nueva industria alimenticia basada en la producción de proteínas en laboratorios. Mucha gente inteligente se dedica a viabilizar la tecnología, con la idea de que esta podría dominar el futuro de la alimentación. ¿Lo hará?
Desde diciembre de 2020 la compañía Eat Just (Good Meat) vende en Singapur (el primer país en aprobar el producto para consumo humano), carne de pollo cultivada en laboratorios.
Según informaba el blog “make it” de CNBC, ya en marzo de 2021, el nugget de pollo ahora está disponible en el restaurante 1880 de Singapur, con un precio minorista de alrededor de U$ 17 para una comida preparada, el año pasado.
Como reporta Upside Foods, fundada en 2015 (que reclama ser la primera compañía dedicada a la producción de carne cultivada del mundo), “lo que hace que nuestra carne (de res y pollo) sea única es cómo se cultiva: tomamos una pequeña muestra de células de pollo sanas. Lo colocamos en un ambiente rico en nutrientes y permitimos que se convierta en carne pura y limpia, lista para cocinar y disfrutar”.
Se trata de un proceso que ha sido denominado “agricultura celular”. Y no solo alcanza a la carne de res o pollo.
Este año, Upside Foods adquirió “Cultured Decadence” una compañía dedicada a la producción de mariscos cultivados, logrando una ronda de recaudación de fondos récord de U$ 400 millones. Y la compañía Perfect Day, establecida en 2016, con oficinas en USA e India, se dedica a la producción de proteína de suero de vaca desde un hongo genéticamente programado para crearla, utilizando la misma tecnología de fermentación de precisión responsable de la insulina médica.
Desde leche hasta helado y queso crema, la proteína de leche de Perfect Day ya está disponible en más de 5000 tiendas en los EE. UU. Pero en lugar de ser elaborado por el ganado, es producido por proteína de suero de vaca. No contiene lactosa.
Otra compañía, Just Egg, del grupo Eat Just, descubrió el frijol mungo, una legumbre rica en proteínas que se usa comúnmente en las cocinas de Asia. Y en 2018, nació Just Egg. Hasta la fecha, la compañía ha vendido el equivalente a 100 millones de huevos hechos de plantas en los principales minoristas, como Walmart, Whole Food Markets y Alibaba.
Los argumentos a favor de la producción de la agricultura celular incluyen en lugar prominente la protección del medioambiente.
Es cierto que la carne de res y la leche son dos commodities con los mayores registros de emisiones del sector agrícola (representan 3 y 1,6 gigatoneladas de carbono equivalente – a valores de 2010 – sobre un total de 8,1 del sector) según informa el tablero de control de la Organización de la Agricultura y la Alimentación (FAO)
Sin embargo, el aporte de la agricultura celular a la reducción de las emisiones de carbono por parte del sector aun es materia de discusión. Un estudio publicado en “Frontiers” en 2019, concluye que “la carne cultivada no es prima facie climáticamente superior al ganado; en cambio, su impacto relativo depende de la disponibilidad de generación de energía descarbonizada y de los sistemas de producción específicos que se realicen”.
El juicio está abierto. Mientras tanto, las partes argumentarán febrilmente a favor y en contra de ellos sistemas productivos que compiten por definir el futuro de la alimentación en un mundo más populoso que demandará cada vez más proteínas
Como argumentamos desde estas páginas, la tecnología revoluciona cada aspecto de nuestra vida; la forma en que nos comunicamos, consumimos y trabajamos. Trabajar por encargo, ciertamente, no es un algo nuevo en la industria o los servicios. Existe desde los albores de la actividad económica.
Lo nuevo es, en todo caso, la proporción que ha adquirido el sector de la economía que reúne sus ingresos de esta manera, trabajando por encargo y actuando como “agentes libres y asalariados ocasionales”.
El premio Nobel de economía Ronald Coase había previsto que esto podía ocurrir en su teoría de los costos de transacción. Según él, las empresas solo contratan personal directamente cuando los costos de incorporar empleados son menores que los de contratar a terceros fuera de la compañía.
El mercado laboral que surgió luego de la crisis financiera internacional 2007/8 merced a la reducción de costos de transacción en las compañías para externalizar operaciones (haciendo outsourcing) – potenciada por el progreso tecnológico – llevó la proporción de trabajadores independientes a niveles muy altos.
Tan altos como para que merecieran nombre propio: la economía de los pequeños encargos, más conocida como economía “gig”. Esa palabra se refiere al carácter transitorio del trabajo en sí; proviene de la jerga musical y se refiere a las actuaciones cortas que realizan los grupos musicales.
El mundo “gig” incluye consultores, contratistas independientes y profesionales, así como trabajadores autónomos y temporarios y ha estado bajo estudio detallado.
Sin embargo, como es la tecnología la que la hace posible, se ha hecho difícil clasificar qué cuenta como parte de esta economía y que no. Por eso existen análisis contemporáneos que dicen que está en crecimiento, mientras otros señalan que estaría contrayéndose lentamente.
Cuando hablamos de la economía “gig” la gente piensa en Uber, Lyft, TaskRabbit y Airbnb. Son compañías que han popularizado el concepto a partir de la globalización de sus operadores. Pero en la lista también deberíamos incluir a quienes mantienen varios empleos, trabajadores contingentes y de tiempo parcial así como consultores y contratistas altamente especializados.
La flexibilidad, la comunicación “en línea” y la deslocalización son frecuentemente citadas como las características principales que han permitido la expansión de la economía “gig”. Con esas herramientas las empresas pueden utilizar talentos ubicados a miles de kilómetros, en diferentes “usos” horarios.
Es probable que, como pasó después de la crisis financiera de la primera década del siglo, la economía “gig” crezca fuertemenete al dejar definitivamente atrás la pandemia de SARS-CoV-2.
Por eso vale la pena analizar los escenarios futuros. Por caso, la relación de la economía “gig” y la tecnología “blockchain”.
El Massachusetts Institute of Technology (MIT) ha puesto en funcionamiento un “monedero blockchain” en el que sus alumnos pueden llevar sus títulos y credenciales, acreditando de ese modo sus conocimientos y habilidades.
Plataformas como Coinlancer y Ethlance incorporan blockchain para aumentar la transparencia de las transacciones económicas entre clientes y contratados, usando criptomonedas como remuneración.
Hay, incluso, “fintech” que están creando herramientas específicas para este modelo económico (como la start-up Azlo).
Como ocurre siempre, en una época de cambios es necesario balancear las oportunidades que surgen con las dificultades emergentes de esta verdadera revolución de los mercados laborales del siglo XXI.
En muchos países la seguridad social está vinculada a los contratos de trabajo estándar, lo cual representa un problema social que debe atenderse. Asimismo, la relación laboral típica de los “ambientes de oficina”, que facilita la interacción con otros trabajadores, pares o superiores, para resolver problemas, adquirir o mejorar habilidades no está presente.
En simultáneo, aspectos de nuestra vida cotidiana, que antes eran privativos de la actividad doméstica, tales como cocinar, se abren al capital privado y la inversión de riesgo.
Mientras algunos trabajadores ven en la economía “gig” una oportunidad para complementar sus ingresos formales y otros no están dispuestos a dejar su situación de agentes libres o asalariados ocasionales muchos se preguntan si la diferencia con experiencias anteriores de externalización o tercerización (que fueron asociadas a la precarización laboral) radica en la voluntad de los trabajadores de usar nuevas tecnologías para organizar sus ingresos y toda su vida laboral de una manera nueva.
La informática, la principal disciplina que nos condujo desde una época de cambios hasta un “cambio de época” ha superado una nueva frontera. Ahora puede operar en “exaflops”.
Esto es muy importante porque, cada vez más, el desarrollo de la ciencia se basa en “modelos de simulación” que demandan mayor capacidad de computación. Cuanto más precisos y detallados sean los “modelos” mejores resultados podrán obtenerse en la disciplina que se estudia.
Por eso, hoy en día, la producción de la mejor ciencia está en manos, en gran medida, de quienes cuentan con los mejores equipos de computación.
Existe una publicación que hace “tracking” de las 500 supercomputadoras más rápidas del mundo. Un artículo reciente, publicado en el prestigioso periódico financiero “Financial Times”, da cuenta de los dos reportes anuales que se publican sobre el tema.
Según este reporte, la computadora más poderosa que jamás haya existido está ubicada en el “campus” del Oak Ridge National Laboratory (dependiente del Departamento de Energía de los Estados Unidos), y fue bautizada “Frontier”.
Se trata de una máquina de U$ 600 millones que consiste en 74 gabinetes (cada uno pesa tanto como un camión) refrigerado por más de 22.700 litros de agua por minuto y conectada por casi 145 kilómetros de cable, capaz de procesar un billón de billón de operaciones por segundo (una medida conocida en computación como exaflop)
La velocidad de procesamiento de estos supercomputadores se acelera regularmente. En los últimos 7 años creció 10 veces, desde el orden de los 100 millones de billones hasta el billón de billón por segundo.
En total, 173 de estas supermáquinas están en China, un 35% más de las que tiene los Estados Unidos (que poseen 128). De esta manera, el país asiático reafirma su liderazgo en un campo crítico para el avance científico tecnológico, un área en la que revlea primacía desde los años 2000.
Es interesante notar que, aun cuando estas computadoras tienen especial aplicación en las ciencias, la mitad de ellas están en poder de la industria, un hecho que demuestra una vez más la importancia de la articulación público-privada en el fortalecimiento del ecosistema de innovación en una economía moderna.
Estos superequipos, aplicados a la formulación de “modelos” climáticos, energéticos, aeroespaciales o biomédicos permitirán el desarrollo de soluciones más apropiadas para los desafíos que enfrentamos en todos esos campos.
Por esta razón, es necesario promover, a través de la cooperación internacional, mecanismos que aseguren una sana competencia por desarrollar más y mejores supercomputadores, evitando que las tensiones geopolíticas retrasen el progreso y demoren las soluciones que buscamos.
La pandemia del COVID 19 nos ha enseñado, de una manera muy dolorosa, cuanto tenemos para ganar compartiendo información y trabajando colaborativamente y cuantas vidas se ponen en juego cuando actuamos en contra de lo que indica el sentido común.
Una civilización que ha logrado desarrollar la tecnología en la que se basan estas supercomputadoras debería ser capaz de rescatar la ética de la colaboración para fortalecer la provisión de bienes públicos globales.
No ofrecemos aquí un análisis académico de las teorías económicas. No podría decirse además que la “nueva” teoría del crecimiento fuera desarrollada a partir del surgimiento de la nueva economía. En todo caso la precede varias décadas y la explica.
Lo que ambas tienen en común es el rol central que le asignan a la innovación y al cambio técnico para promover el crecimiento de la economía.
La preocupación por determinar los motores de crecimiento está presente entre los profesionales desde el surgimiento mismo de la economía como ciencia.
Adam Smith lo planteo en el título de su libro fundacional. Un siglo después, Alfred Marshal ponía la búsqueda del crecimiento en el centro de las preocupaciones de los economistas.
Esa búsqueda se intensificó al término de la Segunda Guerra Mundial, disparada por el proceso de descolonización, que aumentó el número de países miembros de la comunidad internacional desde las seis decenas hasta los actuales dos centenares.
En esta nota no analizaremos contribuciones sobresalientes al pensamiento sobre desarrollo económico realizados por grandes profesionales como Raul Prebish y Hans Singer, Chandra Mahalanobis o Paul Rosenstein Rodan. Apenas revisaremos tres ideas, con el fin de resaltar el rol de la innovación y el cambio técnico.
El modelo Harrod-Domar (1946) provee la primera idea poderosa para los economistas de posguerra planteando, básicamente, que el nivel de inversión de un período dado determina el crecimiento económico del siguiente.
Aun cuando sus autores descartaron este enfoque como teoría del crecimiento, todavía hoy estas ideas informan los análisis y decisiones de organismos multilaterales de crédito.
Una década más tarde Robert Solow (1957) hace un aporte determinante. El premio Nobel planteó que el crecimiento a largo plazo de los países solo podía ser explicado por la tasa de cambio tecnológico en una economía dada, debido a la ley de rendimientos marginales decrecientes.
Según esa ley, el uso de unidades adicionales de un factor productivo (capital o trabajo) genera incrementos menos que proporcionales del producto final. Por lo tanto, no se puede crecer a largo plazo aumentando solamente los factores de producción.
Es necesario cambiar la tecnología, usar nuevos materiales o técnicas productivas diferentes para mantener el crecimiento constante.
Solow pensaba que no se podía influir sobre el proceso de cambio tecnológico fácilmente. Para él eso dependía de factores extra-económicos, tales como el desarrollo de la ciencia básica.
Tres décadas más tarde, Robert Lucas y Paul Romer (1986/1987) plantean que la ley de rendimientos decrecientes no se cumple en presencia de cambio tecnológico. Y que tal cambio no se debe solo a factores no económicos, sino que puede ser influido por las políticas públicas.
Una simple conclusión de este breve análisis nos dice que acumular capital es clave para el crecimiento económico. No hay duda. Nuestro entendimiento sobre las formas de atraerlo y acumularlo, sin embargo, se han enriquecido a través del tiempo, dándole un rol central a la innovación y el cambio técnico.
Desde la simple fórmula de los ahorros domésticos suplementados por recursos externos (inversión privada) hasta los planteos más elaborados de Solow, Lucas y Romer donde la acumulación de capital debe ser articulada con el cambio tecnológico de la economía para sostener el crecimiento a largo plazo el rol del conocimiento y la innovación solo continuará creciendo a través de los años.
El crecimiento de la productividad, la innovación y el desarrollo tecnológico son, en sí mismos, fuentes decisivas de atracción y acumulación de capital.
Se trata de factores que se complementan de manera imprescindible con la construcción de las capacidades sociales de la gente en el campo de la educación, la salud, la ciencia y el sistema tecnológico.
Preservar los patrones de crecimiento y crear más empleos de calidad es muy necesario en una economía global que se enfrenta a las secuelas de los paquetes de apoyo implementados para enfrentar la pandemia y a los eventos desencadenados por la renovada tendencia a pelear guerras territoriales.
El retorno de la inflación, el desacople de las cadenas globales de valor y la disrupción en las redes mundiales de producción, la crisis alimenticia y energética han puesto de cabeza, en unos pocos meses las tendencias que organizaron la economía internacional en las últimas décadas.
Mientras tanto, los cambios tecnológicos de gran poder disruptivo no se detienen, y continúan sacudiendo modelos comerciales bien establecidos y desafiando los supuestos tradicionales sobre consumo, recursos, mano de obra, capital y competencia.
¿Sería demasiado ambicioso proponer que los líderes del G7 y el G20 creen un pacto mundial para el desarrollo de las pymes y el espíritu empresarial?
Al hablar de las principales tendencias macroeconómicas, muchas veces dejamos de lado cuestiones clave para las economías locales. Las PYME son la columna vertebral de la comunidad empresarial.
A menos que intentemos un pacto global para PYMEs, persistirán los resultados insuficientes en lograr crecimiento de calidad y creación de empleo. Es necesario consolidar, renovar y actualizar la caja de herramientas de políticas para las PYME. La economía global está cambiando rápidamente. Otra vez.
Un pacto global para las PYME y el desarrollo empresarial podría ayudar a liberar el espíritu emprendedor y el potencial a las PYME en una economía global que enfrenta un contexto desafiante. Las chances de que enfrentemos una recesión “atlántica” (sino global) en los próximos dieciocho meses no son bajas.
Si bien su marco detallado merece una reflexión adecuada, la práctica política anterior sugiere un enfoque en prioridades limitadas y viables para abordar los obstáculos comunes de las pymes, por ejemplo:
■ Acceso a capital para complementar los préstamos bancarios tradicionales con instrumentos para fortalecer la financiación basada en activos entre las PYME, incluidos mecanismos alternativos de deuda (bonos corporativos, deuda titulizada, bonos garantizados), instrumentos híbridos (que combinan deuda y capital), mercados públicos de acciones de PYME y crowdfunding .
■ Acceso a mercados internacionales y flujos de conocimiento. Esto podría lograrse trabajando en cadenas de valor globales y redes de producción globales para crear estándares básicos y difundir conocimientos para las PYMES, permitiéndoles adquirir las habilidades necesarias para participar más activamente en la economía global.
■ Acceso a redes de innovación globales y locales, investigación pública y oportunidades de contratación para estimular la colaboración entre universidades, laboratorios de investigación y PYME, como tecnologías ambientalmente racionales, nuevos materiales y otras tecnologías relacionadas con la protección del clima.
■ Mejora de las habilidades de gestión, incluida la evaluación de riesgos, el pensamiento estratégico, la creación de redes, la toma de decisiones, el procesamiento de la información y otras habilidades similares a través de programas educativos para las PYME y el espíritu empresarial.
La edad y el tamaño de la empresa son importantes. Las empresas innovadoras jóvenes son creadoras netas de empleo (aunque podrían tener un peso limitado en la economía).
Enseñar a las pymes cómo
manejar activos intangibles y capital intelectual también podría brindar oportunidades para nuevas empresas y crear nuevos puestos de trabajo.
También podría promoverse una sección especial para PYME en los acuerdos comerciales multilaterales (como se ha intentado en las últimas versiones de los mismos).
Agregar una dimensión local y trabajar a nivel de ciudad o distrito también podría ser significativo. Una base de datos global de información sobre el rendimiento de los instrumentos y las mejores prácticas podría ser de gran ayuda.
Los líderes gubernamentales y empresariales deben prepararse para una realidad muy diferente. Se necesitan nuevos enfoques incluso para desafíos bien conocidos, especialmente si queremos crear empleos para un crecimiento inclusivo y de calidad.
En febrero de 2003 tuvimos un primer aviso. SARS, un coronavirus detectado en Asia, se expandió a 24 países en América, Europa y Asia, antes de ser detenido en julio de 2003.
Luego apareció MERS en Medio Oriente. Por sus características (originado en camellos y transmitido por contacto muy estrecho, en hospitales) no se convirtió en una amenaza global.
En enero de 2020 llegó finalmente la primera pandemia en un siglo, provocada por el SARS-CoV-2. Como se ha dicho en este blog, generó una triple crisis: sanitaría, económica y de liderazgo, todas ellas interconectadas y realimentadas recíprocamente.
En un año y medio se registran más de 170 millones de personas infectadas y un registro superior a los tres millones y medio de muertos (algunas cálculos llevan esa cifra a los 10-13 millones analizando el excedente de decesos reportados comparados con años anteriores). Se estima que la economía global se contrajo 3,5%, la mayor caída en tiempos de paz en más de un siglo.
En ese contexto desolador, la ciencia y la tecnología se convirtieron en nuestra esperanza. Y con razón.
Compartiendo información y publicando material la comunidad científica se dedicó a explotar a fondo la infraestructura de conocimientos acumulada desde la última pandemia (gripe española en 1918) acerca medición de anticuerpos, evaluación de su funcionamiento en el sistema viral, ciclo de vida del virus, etc., para producir una respuesta coordinada.
Y lo hizo con una rapidez sin precedentes. Secuenciar el código genético del SARS en 2003 llevó tres meses. En 2020, decodificar el del COVID-19 insumió apenas unos días. Tres meses después las primeras vacunas iniciaban sus ensayos clínicos. En apenas un año, las primeras vacunas fueron aprobadas para uso de emergencia en una gran cantidad de países.
Al día de hoy contamos con más de quince vacunas, utilizando distintas tecnologías.
Vacunas de virus inactivado Vacunas de vector adenovirus
Sinopharm (BBIBP) Oxford-AstraZeneca
Sinopharm (WIBP) Sputnik V
Coronvac Sputnik light
Covaxin Johnson & Johnson
Covivac Convidecia
QazCovid-in
Vacunas de subunidades proteicas Vacunas de RNA mensajero
EpiVacCorona Pfizer-BioNTech
RBD-Dimer Moderna
Algunos avances, como el de las vacunas que utilizan mensajero RNA, son realmente sorprendentes. En pocos meses de 2020, la ciencia logró sintetizar y aplicar investigaciones que llevaron décadas, para desarrollar nuevas vacunas.
Básicamente, el RNA mensajero es una molécula que “genera un puente” de la información genética contenida en el DNA de una célula, desde su núcleo a su plasma, donde es traducida en proteínas.
Con esta tecnología, las vacunas que utilizan el mensajero RNA instruyen al cuerpo humano que produzca la proteína “spike”, ubicada en la superficie del virus, disparando la generación de anticuerpos que rechacen el COVID-19. Como se ve, no necesita inyectar una versión atenuada del virus en el organismo, tal como lo hace la tecnología tradicional de vacunación.
El RNA es inestable y no es sencillo trabajar con él. Con ayuda de la nanotecnología los científicos lograron depositarlo en una pequeña partícula de lípidos, para diseñar luego una versión de esa nano-partícula que pudiera ser inyectada en humanos de manera segura.
Las innovaciones en biología sintética hicieron el resto, contribuyendo de manera clave para desarrollar la producción de vacunas basada en esta técnica.
El mensajero RNA es un logro extraordinario. Promete aplicaciones inesperadas hace poco tiempo. Incluso posibilitaría un desarrollo más rápido de nuevas vacunas.
Más vacunas, de mejor calidad, aplicadas a través de planes de vacunación efectivos, ofrecen perspectivas de recuperación de la economía y de nuestras libertades. Casi 2.000 millones de dosis han sido aplicadas en menos de 6 meses.
Tuvimos razón de confiar nuestras esperanzas en la ciencia. Estuvo a la altura de las expectativas y ha sido capaz de producir cambios que atraviesan fronteras físicas y del conocimiento.
Una vez más, nos ofrece la oportunidad de pensar en un futuro mejor. Y convertir al SARS-CoV-2 en la última pandemia.
Responder la pregunta es un desafío. Muchas definiciones han sido propuestas. Intentaré explicar brevemente cómo puede analizarse la emergencia de este nuevo fenómeno, que lleva varios años de desarrollo. Los cambios culturales y sociales de la humanidad pueden contarse a través de la innovación y el cambio técnico.
El fuego, la rueda, la imprenta o la máquina de vapor tuvieron impacto disruptivo (la última el más relevante de todos). Realizar plenamente su potencial llevó décadas. Lo hicieron solo cuando fueron adoptados por la gente común a través de aplicaciones que influyeron gradualmente en la forma en que se organiza la vida diaria.
Lo mismo sucede con la revolución de las tecnologías de la información y las telecomunicaciones durante las últimas tres décadas. La crisis financiera internacional de 2007/8 impulsó el proceso. La pandemia de SARS-CoV-2 que atravesamos vuelve a acelerarlo y refuerza sus características.
Los cambios son tan dramáticos que apenas reconocemos la organización económica del siglo XX. Cada innovación tecnológica en su época se aplicó a diversos campos de la actividad humana. Ninguna, sin embargo, tuvo una difusión tan amplia y un impacto tan singular como las tecnologías de la información de nuestro tiempo. Probablemente, la aparición de la máquina de vapor es el ejemplo más similar. Hoy, las tecnología I&T están presentes en cada aspecto de nuestra vida, de manera permanente y creciente.
Incluso en ese contexto, no me atrevería a presentar la “nueva economía” como un fenómeno definido por una tecnología única y particular, porque la misma va mas allá de cualquiera de ellas individualmente. Su corazón está en la relación que establecen unos sectores emblemáticos y la forma en que se fertilizan entre sí, así como en la manera en la que influyen en los productos y mercados tradicionales de las antiguas economías industriales y agrícolas.
Se caracteriza por la aparición de nuevos actores económicos que operan bajo nuevas reglas de juego y demandan nuevas instituciones para una economía que desplazan el enfoque empresarial hacia nuevos objetivos, operando en un nuevo equilibrio geopolítico.
¿Cómo se compara la “nueva economía con la organización económica del siglo XX?”
En la práctica, ninguno de los elementos que configuran el panorama de la nueva economía (actores, instituciones, reglas o sectores) es necesariamente nuevo para los emprendedores o desconocido para los ciudadanos. Muchos de ellos, individualmente, incluso nos resultan familiares.
La nueva economía es el resultado de los cambios que se están produciendo, al mismo tiempo, en todos estos campos y en la forma en que se refuerzan y fortalecen.
Cuando hablamos del surgimiento de una nueva economía, no queremos decir que un modelo de organización económica sustituya a otro de una vez por todas, sino que se produce un proceso marcado por un eventual y gradual enriquecimiento, a través de un torrente de innovaciones tecnológicas simultáneas en varios campos de la ciencia, lo que fertiliza la organización económica existente con la aparición de nuevos elementos, hasta que cambia por completo su fisonomía.
Cuando escribí por primera vez sobre este tema, en 2013, para “Argentina 4.0, La Revolución Ciudadana” había visto ya el efecto que tuvo la crisis financiera internacional en el surgimiento de una nueva economía, acentuando tendencias y procesos. Muchas regulaciones que anticipé en mis libros (sobre “reglas de juego” o “instituciones”) comenzaron a discutirse y algunas se implementaron.
No podía imaginarme en ese momento que el COVID-19 aceleraría la definición de nuevos roles para los actores y agentes económicos, a la vez que resaltaría la importancia crítica de la cooperación internacional para la provisión de Bienes Públicos Globales y el rol clave del liderazgo político en las naciones.
De todas maneras, la nueva economía ya está entre nosotros, con una presencia mejor definida cada día.