“Mucho ruido y pocas nueces”, refiere el dicho popular que describe aquellas situaciones en las que la expectativa supera con creces a la realidad. Se anuncia una revolución, se agitan banderas, se pronuncian discursos solemnes… y al final, cuando el polvo se asienta, lo que queda es apenas un puñado de intenciones. Dicho en criollo, supone que el estruendo retórico no siempre se traduce en resultados concretos.
La expresión encaja con inquietante precisión en el clima que rodeó a la Declaración de Nueva Delhi, adoptada en el marco del AI Impact Summit celebrado el 18 y el 19 de febrero de 2026. Noventa y un países y organizaciones internacionales suscribieron un documento que proclama una visión elevada: garantizar que el desarrollo y el despliegue de la inteligencia artificial beneficien a toda la humanidad bajo el principio de “Sarvajan Hitaya, Sarvajan Sukhaya” (bienestar y felicidad para todos). La frase es impecable. La música suena armoniosa. El problema aparece cuando bajamos del plano declarativo al terreno de la realidad.
La declaración parte de una premisa indiscutible: la inteligencia artificial constituye un punto de inflexión en la evolución tecnológica y las decisiones actuales definirán el mundo que heredarán las futuras generaciones. Hasta allí, difícil disentir. También propone fortalecer la cooperación internacional, adoptar un enfoque multiactor y respetar la soberanía nacional. Todo suena razonable y muy lindo. Todo parece sensato. Pero el documento se estructura en torno a siete chakras o pilares que, analizados con lupa, revelan una constante: abundan los lineamientos voluntarios y escasean los compromisos vinculantes.
El primer pilar habla de democratizar los recursos de IA, promover infraestructura digital robusta y acceso equitativo. El segundo promueve crecimiento económico y bien social mediante aplicaciones amplias y enfoques de código abierto. El tercero impulsa estándares técnicos y marcos regulatorios “adecuados”. El cuarto supone la creación de una red internacional para potenciar la IA en la ciencia. El quinto propone empoderamiento social. El sexto enfatiza el desarrollo de capital humano como la alfabetización digital y el último de ellos destaca la resiliencia, la innovación y la eficiencia energética.
Nadie podría oponerse a estos objetivos. El problema es otro: la historia demuestra que, cuando se trata de tecnologías disruptivas, la velocidad de la innovación suele superar con creces la capacidad política para regularla. En otras palabras, mientras los gobiernos discuten principios, los algoritmos aprenden a una velocidad que desafía cualquier cronograma diplomático.
La advertencia reciente de Sam Altman, creador de ChatGPT, agrega una capa adicional de inquietud. En una conferencia tecnológica en Nueva Delhi afirmó que el mundo necesita regular la inteligencia artificial “urgentemente”. Reconoció que la IA en manos privadas trae beneficios enormes, pero eso no significa que no necesitemos regulación y medidas de seguridad. Es obvio –refirió– que las necesitamos, y con urgencia. La comparación con la regulación nuclear no fue casual: sugirió la necesidad de algo parecido a un organismo internacional que supervise la IA, análogo a los mecanismos de control que surgieron tras la proliferación atómica.
El dato no es menor. Cuando quienes lideran la carrera tecnológica comienzan a hablar de frenos y controles, alerta la magnitud del fenómeno que los supera. En las últimas semanas, nuevos modelos de IA han demostrado capacidades que hace apenas un año parecían ciencia ficción: crean aplicaciones sofisticadas a partir de instrucciones verbales, las prueban, detectan errores y se autocorrigen. No estamos ante simples mejoras: estamos ante sistemas que aprenden, optimizan y ejecutan tareas complejas con una autonomía creciente. Y deciden.
Aquí es donde la brecha entre la retórica de Nueva Delhi y la realidad tecnológica se vuelve evidente. Las declaraciones hablan de cooperación y buenas prácticas. Pero la competencia geopolítica por liderar la IA es feroz. Cada país quiere su ventaja estratégica. Cada corporación busca consolidar su hegemonía algorítmica. En ese contexto, confiar exclusivamente en compromisos voluntarios es, cuanto menos, ingenuo e infantil.
Los riesgos son enormes y no admiten eufemismos. El primero es económico y social. La sustitución masiva de empleos no será gradual ni ordenada. Sectores enteros –servicios administrativos, transporte, diagnóstico médico, asesoramiento legal, programación– pueden experimentar (y lo están haciendo) desplazamientos abruptos. La reconversión laboral, tantas veces invocada, puede resultar insuficiente frente a la magnitud del cambio. Una sociedad que no gestione esta transición podría enfrentar niveles de desigualdad y conflictividad inéditos.
El segundo riesgo es político. Los sistemas de IA pueden amplificar desinformación, generar contenidos falsos indistinguibles de la realidad (deepfakes) y manipular opiniones públicas a escala masiva. La estabilidad democrática depende de un ecosistema informativo confiable. Si ese ecosistema es colonizado por algoritmos capaces de fabricar realidades paralelas, la deliberación pública se erosiona. El poder ya no residirá únicamente en los votos o en las armas, sino en los centros de datos.
El tercer riesgo es ético y jurídico. Delegar decisiones críticas en algoritmos plantea preguntas fundamentales: ¿quién responde ante un error sistémico? ¿Cómo se audita una red neuronal con millones de parámetros? El derecho romano ya advertía, con la claridad que lo caracterizaba: “Ubi societas, ibi ius” (donde hay sociedad, hay derecho). Si la inteligencia artificial redefine la sociedad, el derecho no puede permanecer inmóvil.
Existe, además, un riesgo existencial que muchos prefieren minimizar por temor a sonar alarmistas. A medida que los sistemas avanzan hacia mayores niveles de autonomía, la posibilidad de pérdida de control deja de ser un argumento de ciencia ficción. No se trata de imaginar máquinas con voluntad propia, sino de sistemas que optimizan objetivos de manera implacable, aun cuando esos objetivos entren en conflicto con valores humanos fundamentales. Un algoritmo que maximiza eficiencia puede sacrificar equidad. Uno que prioriza seguridad puede restringir libertades. La lógica matemática no siempre coincide con la ética humana.
La paradoja es brutal: cuanto más poderosa se vuelve la IA, más dependientes nos volvemos de ella. Infraestructuras críticas –energía, transporte, salud, finanzas– ya incorporan sistemas automatizados. Una falla sistémica o un ciberataque potenciado por IA podría generar efectos en cascada de alcance global. No hablamos de interrupciones menores, sino de colapsos que afecten millones de vidas en cuestión de horas.
Frente a este escenario, las declaraciones voluntarias lucen insuficientes y caen en una bolsa de expresiones de deseo. Son un punto de partida, sí. Pero no alcanzan. La gobernanza de la inteligencia artificial requiere marcos regulatorios internacionales vinculantes, auditorías independientes, transparencia algorítmica real y límites claros en aplicaciones militares autónomas. Requiere coordinación entre Estados, pero también responsabilidad efectiva de las empresas que desarrollan estas tecnologías.
No son suficientes las buenas intenciones si no existen mecanismos de control efectivos y sanciones ante incumplimientos. La historia del siglo XX demostró que la ciencia sin ética puede derivar en catástrofes de proporciones inimaginables. La inteligencia artificial tiene el potencial de acelerar descubrimientos científicos, optimizar recursos y mejorar la calidad de vida. Pero también puede amplificar nuestras irresponsabilidades.
El verdadero riesgo no es que las máquinas se vuelvan humanas; es que los humanos se desentiendan de su responsabilidad en nombre de la eficiencia y el progreso. Si algo enseñan el derecho romano y la tradición jurídica occidental es que el poder –sea político, económico o tecnológico– debe estar sujeto a límites. “Summum ius, summa iniuria”: el derecho llevado al extremo puede convertirse en injusticia. Lo mismo ocurre con la tecnología sin control.
La historia no juzgará la etapa que vivimos por la elegancia de sus declaraciones, sino por la firmeza de sus decisiones. La inteligencia artificial puede ser la herramienta más poderosa jamás creada por la humanidad. Precisamente por eso, exige el mayor grado de prudencia, ética y regulación que hayamos sido capaces de concebir. Porque cuando el ruido se apaga, lo que queda no son los discursos, sino las consecuencias
La Declaración de Nueva Delhi es, por ahora, un gesto. Un gesto necesario, pero insuficiente. Si el mundo no traduce esas palabras en normas exigibles, mecanismos de supervisión y cooperación real, el riesgo es que dentro de un breve espacio de tiempo miremos hacia atrás y concluyamos que hubo mucho ruido… y pocas nueces.
Abogado, consultor e investigador en Derecho Digital, Data Privacy e IA; profesor Facultad de Derecho UBA y Austral. Director Posgrado UBA Deepfakes e IAG
