De la Economía del Conocimiento a la Economía de la IA: ¿Qué pasará?

AI Economy: What Could Happen

La economía del conocimiento es un concepto que consiste en usar el conocimiento de una empresa o una persona para impulsar la economía en lugar de su producción física. Esto contrasta directamente con una sociedad agraria (agricultura/comida) o con una economía manufacturera (productos físicos) y se diferencia de la economía de servicios en que los productos basados en el conocimiento ofrecen un resultado, no son un servicio como tal. Se da por hecho que la economía del conocimiento es un componente muy importante en una economía desarrollada y moderna.

Normalmente, las economías del conocimiento cuentan con una mano de obra altamente cualificada y especializada y con grandes instituciones (ya sean empresas o centros de aprendizaje) que capitalizan este conocimiento.

Pero el auge de la IA pone todo esto en riesgo.

La economía del conocimiento actual

A día de hoy, el conocimiento lo poseen los humanos. Pagas a alguien para que, por ejemplo, escriba un artículo o cree nuevas ideas para campañas de marketing. Tus equipos de ventas lo forman humanos que mandan correos, responden a clientes y entregan productos.

Tus equipos de instalación lo conforman humanos. Tus equipos de desarrollo también. Contabilidad, nóminas, RR.HH. — todos humanos.

Esto se debe a que el conocimiento reside en estas personas. Les pagas por el valor que ofrecen a tu organización, y ellos usan la tecnología para aumentar dicho valor. Evalúan grabaciones, comprueban datos y toman decisiones. Almacenan los resultados en grandes bases de datos y las empresas usan ese conocimiento.

Y ahí es donde reside el valor de las personas: toman decisiones según el conocimiento que poseen.

A pesar de los avances en hacer que el conocimiento sea más accesible, seguimos limitados por la cantidad de información que los humanos pueden retener y cómo pueden usarla. Otras limitaciones son la capacidad de rechazar información falsa (con diferentes niveles de éxito), entender las prioridades y ser capaz de tomar elecciones aleatorias cuando sea necesario.

Al terminar su doctorado, se dice que los estudiantes son los expertos más importantes en cierto campo, ya se trate entre urnas griegas antiguas o de cómo las moléculas se transfieren entre el petróleo y el agua haciendo uso de tioéteres.

Sin embargo, el hecho de poseer este conocimiento no se traduce en que vayan a ganar más dinero. Debemos añadir otra variable: ¿qué valor tiene su conocimiento para tu empresa?

El conocimiento de un químico puede ser increíblemente lucrativo dado que sus investigaciones pueden generar nuevos medicamentos, catalizadores o pesticidas, entre otras cosas. Alguien que investigue algo clásico puede no tener el mismo nivel de valor comercial dado su doctorado. De la misma forma, alguien que ha trabajado 20 años en marketing puede tener conocimientos comercialmente más relevantes que alguien que lleve solo uno en este campo.

Luego está la dificultad de los reemplazos: ¿con qué rapidez reemplazas a una persona con dicho conocimiento? Alguien con conocimientos raros y especializados puede ser más valioso que otra persona con una serie de habilidades más amplias, dado que estas personas son muy difíciles de reemplazar además de ser más caro.

Por supuesto, esto son ideas generales.

Sin embargo, lo que esto pone sobre la mesa es que tenemos especializaciones, dificultad de reemplazo y el atractivo financiero como los tres principios para medir el “valor” de la economía del conocimiento dentro de una empresa.

Las limitaciones actuales de la IA

Una de las razones principales por la que los ordenadores tienen problemas para recrear los patrones del pensamiento humano es porque los humanos analizamos la información de forma heurística.

Pregúntale a un ordenador qué es una caja y tendrá problemas para establecer los parámetros para definirla de forma precisa.

Current Limitations of AI

Resumiendo, los humanos no necesitan saber todas las posibles versiones de una caja para entender que algo es una caja. Nos fijamos en los aspectos clave y aplicamos dicha información a nuestras vidas. Esto puede llevar a interesantes debates filosóficos sobre, por ejemplo, cuando una caja se convierte en un cajón. ¿Puede una caja ser a la vez una caja y un cajón?

También somos capaces de deducir que objetos que parecen cajas no son realmente una caja, como podría ser el caso de un libro.

Esta capacidad de rechazar información falsa separa claramente a los humanos de las IA por el momento.

Una posible solución es usar internet como una gran base de datos. Pero si una IA accede a internet, se convierte en la peor versión de sí misma. Esto se deba a todas las críticas que pueden encontrarse en internet con facilidad. A esto hay que sumarle que los usuarios más críticos suelen ser los que más contribuyen. Si una IA sopesa el contenido de acuerdo a la cantidad de contenido similar que puede encontrar, puede volverse altamente intolerante. Esto se ha convertido en un problema en varios campos, incluido el reclutamiento.

Por ejemplo, Amazon dejó de usar su herramienta de reclutamiento por IA una vez se dio cuenta que la información original del modelo de IA/aprendizaje atuomático estaba viciada desde el principio. Detectó preferencias por el género masculino (por cómo Amazon habia reclutado en el pasado), y había degradado ciertas frases (como “de mujeres” y el nombre de dos escuela exclusivamente femeninas) aunque se le especificó que no se fijara en el género.

Esto significa que los flujos de información deben particionarse para entrenar a una IA. Definciencias en el modelo provocarán que la IA genere resultados inesperados — los mismos problemas que se pueden tener al entrenar a humanos.

Basura de entrada= basura de salida

Los numerosos fallos de la IA

Incluso en el campo militar, donde hay que tomar decisiones en una fracción de segundo, no estamos seguros de usar automatismos para acelerar estas decisiones. Existen informes donde se indican que se están quitando a los humanos de la toma de las decisiones. Esto ha provocado que NU prohíba la toma de decisiones de IA en combate. Aunque esta propuesta fue rechazada por la presión de Reino Unido, EE.UU. y Rusia, existe la posibilidad de que el próximo incidente aleje a un más a las naciones de la IA militar.

Los vehículos que usan tecnologías de IA sin conductor afirman ser más seguros que los coches modernos. Sin embargo, no son capaces de funcionar si pones un anillo de sal alrededor del coche. La IA no ha sido todo lo que se esperaba de ella.

Por ejemplo, con ChatGPT, es posible localizar ensayos escritos por IA debido a cómo funcionan sus modelos internos — se usan muchas frases hechas, y su conocimiento de eventos posteriores a 2021 es muy limitado. Los motores de búsqueda están buscando formas de identificar y eliminar contenido escrito por las IA de la web, dado que la mayoría de personas buscan ideas y contenido generado por humanos.

Por el momento, la IA solo puede regurgitar ideas que ya posee. Por consiguiente, no puede crear contenido nuevo, como citas, nuevas teorías e ideas.

Las IA que trabajan de forma más autónoma, como AutoGPT, pueden gestionar preguntas menos estructuradas y ofrecer resultados. Sin embargo, no está claro de donde obtiene dicha información o cómo llega a las conclusiones que ofrece. Esto puede generar problemas para aquellos a los que se le exige responsabilidad en sus campos. Al fin y al cabo, si un modelo de IA te recomienda comprar unas acciones y le empresa quiebra, ¿quién es el responsable dicha decisión? ¿Y si toma una decisión sobre tu salud y es errónea?

¿Cómo sería la destrucción de la economía del conocimiento?

Existe el peligro de que, si la IA se embebe, la gente se centrará no en lo que sabe si no en las herramientas de IA que sabe usar.

Esto comenzaría a destruir los cimientos de la economía del conocimiento moviendo gradualmente bases de conocimientos muy complejas a algoritmos. En lugar de contratar a un desarrollador, contratarías tiempo de uso de una IA que puede entregarte un código preciso y que cubra tus necesidades. En lugar de contratar a una persona que escriba contenido, insertarás tus requisitos en una base de conocimiento, y la IA generará un tema para ti.

El uso de la IA hace que, en teoría, el acceso al conocimiento sea igual para todos.

Lo que podría llegar a pasar es que el conocimiento se vuelva algo más intrínseco en las grandes empresas, y el coste de comprar o de enfrentarse a dicha empresa sea cada vez mayor. Los nuevos proveedores de IA serán evaluados por otras IAs, y si su conocimiento parece útil, se adquirirán rápidamente. Si no es así, serán objeto de un intenso escrutinio y se desaparecerán gradualmente.

El uso de la IA puede erosionar de forma gradual la capacidad de los humanos para expresar su creatividad y seguir su instinto. Ya tenemos software que afirma tomar decisiones según lo bueno que es un anuncio o pieza de contenido de acuerdo al movimiento de los ojos y a su colocación. Tenemos algoritmos que ofrecen contenido según tus preferencias (“también podría gustarte”). Algunos algoritmos pueden ayudarte a planear tus comidas o administrar tu agenda.

A al final, es posible que la IA empiece a juzgar qué empleados hay que retener. Los gestores ya no serán útiles, y los comentarios de los empleados se automatizarán. Al final, la IA podría gestionar todos los aspectos de una empresa, desde los vehículos automatizados y los servicios de reparto hasta las cajas y la seguridad de la misma.

¿No hay esperanza?

A lo mejor lo estamos pintando todo demasiado negro.

Es cierto que las IA han generado un gran impacto, pero ¿tenemos suficiente poder de procesamiento para gestionar billones interacciones que se generan en el mundo?

Probablemente no.

A día de hoy, estamos produciendo chips de ordenador (AMD, Intel) con nodos inferiores a 3 nanómetros. Esto no habla del tamaño de un transistor, sino que es más bien una convención de nomenclatura. Hay planes para nodos de 2 nanómetros, y después nodos de 1.4 nanómetros. Una vez pasado ese punto, no está claro cómo se podrá continuar el proceso.

No podemos hacer demasiado con la tecnología actual antes de que empecemos a encontrarnos grandes problemas con efectos cuánticos (túneles cuánticos para ser exactos). Estos efectos ya son un problema, y empeorarán cuanto menor sea el tamaño de la tecnología.

Esto nos lleva a que la única forma para poder confiar más en la IA es aumentar gradualmente el número de procesadores disponibles. Pero eso requiere grandes cantidades de energía, y ya nos encontramos en una crisis energética que empeorará medida que se agoten las reservas de petróleo y haya una falta de combustible para alimentar todo lo que hay ya en la red.

Y no podemos justificar el aumento de energía solo para vender más productos. Y no podemos justificar los costes adicionales al precio de la vida. Y no podemos justificar que las herramientas de la IA acaben expulsando a la gente de sus trabajos.

Por lo tanto, una IA más avanzada no está sobre la mesa ahora mismo. Así que los trabajos basados en el conocimiento están seguros por ahora.

Tal vez…

Para más consejos de marketing, ¡suscríbete para recibir nuestra revista gratis!

Social Sharing

Deja un comentario