20250326padre-Paolo-Benanti-U17805587161DWw-1440x752@IlSole24Ore-Web.jpg

En el vasto e incesante zumbido que impregna Silicon Valley, donde las valoraciones de los mercados bursátiles fluctúan como mareas furiosas y donde las promesas de un futuro sintético se intercambian con el mismo frenesí que las reliquias antiguas, a veces emerge una voz disonante. No se trata del habitual clamor de optimismo desenfrenado, ni del lamento ludita de rechazo, sino de una clara y tajante llamada al orden, dirigida a quienes hoy poseen las llaves del reino digital. La reciente carta abierta de Alan Jacobson, un emprendedor tecnológico muy activo en línea, a Satya Nadella, director ejecutivo de Microsoft, no se limita a ser una crítica a la empresa; nos permite identificar con precisión quirúrgica las fragilidades estructurales sobre las que estamos construyendo la catedral de la Inteligencia Artificial.

En el centro de esta revisión se encuentra un desafío fundamental a la estrategia de Redmond: haber delegado su destino tecnológico a una entidad externa, OpenAI, y a la figura, definida por algunos como inestable, de Sam Altman. El autor de la carta nos invita a reflexionar sobre una distinción crucial entre el “showman”, aquel que deleita a las multitudes con promesas asombrosas, y el “mariscal de campo”, figura necesaria para guiar una adopción tecnológica estructurada, segura y sostenible. En esta delegación de soberanía reside el primer y gran riesgo ético: cuando una empresa de inestimable valor subcontrata su visión a un laboratorio externo, ¿quién es el verdadero guardián de la seguridad pública? ¿Quién es responsable de las consecuencias cuando la improvisación prima sobre la disciplina?

Sin embargo, el núcleo del razonamiento trasciende la dinámica de poder en la sala de control y profundiza en la cuestión de la inteligencia artificial en sí, revelando las tres grandes aporías que amenazan con colapsar todo el edificio: la memoria, la gobernanza y el modelo económico. Aquí es donde la ética de las fronteras choca violentamente con la realidad técnica. La analogía propuesta entre los modelos de lenguaje (LLM) y la compresión “con pérdida” de imágenes JPEG es tan esclarecedora como inquietante. Si una imagen comprimida sacrifica píxeles, un modelo de lenguaje sacrifica hechos. En esta “compresión de la verdad” reside un peligro fundamental: la aceptación de una realidad borrosa, donde la alucinación es una característica del sistema y no un error. Sin una memoria “sin pérdidas”, la IA no puede aspirar a ser un instrumento de la verdad, pero corre el riesgo de convertirse en un generador de plausibilidad, un oráculo poco confiable, incapaz de soportar el peso de la confianza necesaria para su adopción por parte de las empresas y la sociedad.

Al mismo tiempo, surge la cuestión de la gobernanza, entendida no como un control centralizado y opaco impuesto desde arriba, sino como el ejercicio de una agencia generalizada. La imagen evocada de Joni Mitchell afinando su guitarra para encontrar el sonido perfecto es una poderosa metáfora de la necesidad humana de “afinar” las herramientas tecnológicas. Un sistema que no permite al usuario definir los límites de su comportamiento, establecer cuándo adaptar una respuesta o cuándo negarse, es un sistema que infantiliza a la humanidad, reduciendo al usuario a un consumidor pasivo de resultados algorítmicos. La ética de las fronteras exige que el control permanezca en manos de los humanos, que la tecnología sea una extensión de la voluntad humana y no un sustituto caprichoso.

Quizás aún más insidiosas sean las críticas dirigidas al modelo económico predominante, el basado en “tokens”. Medir el valor de la inteligencia en función del número de palabras producidas es una aberración que distorsiona la naturaleza misma del pensamiento. Como señala el texto, una conversación superficial puede consumir miles de fichas, mientras que una pregunta existencial de tres palabras: “¿Qué es la felicidad?” – requiere una profundidad computacional y filosófica que el sistema actual no puede cuantificar ni explotar. Esta distorsión económica fomenta la verbosidad a expensas de la profundidad, el ruido a expensas de la señal. Si no pasamos a una medida basada en un “cálculo” real, en el costo cognitivo de la respuesta, corremos el riesgo de construir una economía digital que premie la mediocridad detallada y penalice las síntesis profundas.

Referencia

About The Author