top of page
  • Foto del escritorGuadalupe Rico Tavera

¿ES NECESARIO REGULAR A LA INTELIGENCIA ARTIFICIAL?

El auge de la Inteligencia Artificial está a la vista, pero también la necesidad de emitir un marco regulatorio que fije las mejores prácticas y evite los abusos de esta tecnología. Aquí abordamos si la IA debe y puede ser regulada, y cómo debe darse esta regulación.


Desde la llegada de la Inteligencia Artificial (IA) hace unos años, y recientemente popularizada con la aparición del ChatGPT, de OpenAI, hay voces en diferentes partes del mundo que proclaman la regulación de esta tecnología, a fin de evitar su uso malintencionado o abusivo.


La preocupación es justificada. Y es que, según un análisis de la firma tecnológica Intel, el entrenamiento de la IA creció más de cien millones de veces más rápido que la Ley de Moore, el conocido postulado que sostiene que la velocidad de las computadoras se duplica cada dos años.


En este contexto, un grupo de más de 10,000 expertos recién firmó una carta abierta que apela que todos los laboratorios de IA pausen, por al menos seis meses, el entrenamiento de los sistemas de IA más potentes que GPT-4. El comunicado, firmado por personalidades de la talla de Elon Musk, asegura que la IA representa un “cambio profundo en la historia de la vida en la Tierra”, por lo que debe planificarse y gestionarse con el cuidado y los recursos correspondientes.


Por su parte, en Italia se prohibió el uso de ChatGPT, para proteger los datos de los usuarios del país, en medio de una investigación sobre una supuesta violación de las normas de privacidad de Europa. En tanto, en países como China, Irán O Rusia ni siquiera tienen acceso a OpenAI.


Por todo esto saltan las preguntas: ¿Por qué regular la IA? ¿Puede ser regulada? ¿Cómo debería darse su regulación?



¿POR QUÉ REGULAR LA IA?

El éxito de ChatGPT, de la noche a la mañana, desencadenó una carrera industrial que pone a la tecnología en manos de miles de millones de usuarios. Esta tecnología generativa es capaz de producir instantáneamente textos, códigos informáticos, videos, música y fotos de forma similar al trabajo humano a partir de instrucciones escritas. Sí, no hay duda que promete mejorar la productividad de las personas en varias tareas, pero también puede facilitar la difusión de información falsa y proporciona a los potenciales delincuentes nuevas herramientas para suplantar identidades, piratear o cometer otros delitos.


La pérdida de empleos y el abaratamiento masivo de los servicios es uno de los pronunciamientos más sonados a favor de regular a la IA. Pero del otro lado de la moneda, hay quien también apuesta que será una herramienta que ayudará a maximizar las capacidades de los trabajadores, a acelerar la adopción digital y a automatizar tareas repetitivas.


Ya desde 2020, el gigante Google se decantaba por la necesidad de regular la IA bajo el argumento de que las empresas no podían diseñar tecnologías prometedoras y dejar que las fuerzas del mercado decidieran cómo utilizarlas. Pero, igualmente, había firmas que se oponían totalmente a su regulación por tres razones: porque limitaría a la innovación, porque no representa riesgos, y porque después se pueden compensar sus consecuencias negativas.


La Unión Europea también se ha mostrado a favor de poner límites al desarrollo de la IA para que se garanticen los derechos fundamentales, liderando un enfoque ético de esta tecnología. Y la UNESCO no se ha quedado atrás, sugiriendo que todos los países adopten compromisos éticos para regular el desarrollo de la IA.


¿Y qué piensa la opinión pública sobre tan debatido tema? Una encuesta de IPSOS de 2022, encontró que 78% de los chinos entrevistados estaba de acuerdo con que los productos y servicios que utilizan IA tienen más ventajas que inconvenientes. Les seguían los encuestados de Arabia Saudita (76%), India (71%), Perú (69%), y México (68%). En contraste, los estadounidenses se mostraron más en desacuerdo con esta afirmación.




¿PUEDE SER REGULADA LA IA?

Muchas personas en el campo de la IA están trabajando para asegurar que esta se despliegue de forma beneficiosa, sin restricciones innecesarias para los investigadores y desarrolladores. Con ese propósito en la mira, en 2017, el Future of Life Institute coordinó la celebración de la Conferencia de Asilomar, que derivó en 23 principios que representan una guía de gobernanza para su desarrollo en pro bien del común. A la fecha, cerca de 6,000 personas del medio han firmado los Principios de Asilomar.


Sin embargo, estos puntos por si solos no son suficientes si no ponen en práctica. De ahí que surge la pregunta si es necesaria una regulación gubernamental para garantizar que las empresas las cumplan.


La respuesta es afirmativa, al menos para los legisladores del mundo, que han actuado en consecuencia. El Índice AI 2023, elaborado por la Universidad de Stanford, muestra que Occidente y algunos países asiáticos están creando cada vez más normas.


El documento revela que, según registros legislativos de 127 países analizados, 31 de ellos han aprobado por lo menos una ley relacionada con la IA. En total, se han decretado más de 125 normas a nivel global. Estados Unidos encabeza la lista (22 leyes aprobadas), seguido de Portugal (13), España (10). En el cuarto lugar empatan Italia y Rusia (9 cada uno), les sigue Bélgica (7), y Reino Unido (6).




Hay que destacar que México aún no “pinta” en este tema legislativo. De hecho, apenas en marzo, el diputado panista Ignacio Loyola Vera presentó una iniciativa de ley para regular la IA en el país. La paradoja es que un informe de IBM revela que México fue en 2022 el quinto país con mayor tasa de adopción de IA en Latinoamérica.



¿CÓMO SE DEBE REGULAR A LA IA?

La pregunta ya no es si la IA se tiene que regular o no, sino cómo tiene que hacerse de la mejor forma. Para Ángel Melguizo, asesor de UNESCO en IA, ya no es realista una pausa, pero sí avanzar una regulación global basada en recomendaciones.


Otra gran pregunta que ronda en torno a este tema es la siguiente: ¿Cómo lograr el equilibrio entre la innovación tecnológica y la responsabilidad ética y moral?


Esta vez los reflectores apuntan a Sam Altman, CEO de OpenAI, quien junto con otros científicos y expertos de talla mundial, advirtió que, en 10 años, la superinteligencia artificial superará con creces la habilidad de los expertos en la mayoría de los dominios y que, por lo mismo, implicará enormes riesgos. Igualmente, dijo que los últimos avances de la IA generativa son tan importantes como el descubrimiento de la energía nuclear, por lo que propone crear una agencia internacional para regular y auditar el desarrollo de estos sistemas.


En conclusión, el creador del ChatGPT se mostró optimista en que la IA conducirá a un mundo mucho mejor al que podemos imaginar hoy. Aunque también advierte que, tratar de detener esta tecnología, sería poco intuitivo y arriesgado.


Al especializarnos en contratación de talento para empresas de TI, en Workast te mantendremos al tanto de temas tech, para que tomes decisiones informadas. ¡Contáctanos para tus necesidades de talento!

20 visualizaciones

Comentarios


bottom of page