El presidente de EEUU, Joe Biden, firmó a principios de mes una orden ejecutiva de gran alcance sobre la inteligencia artificial (IA), utilizando la fuerza de las agencias del gobierno federal e invocando amplios poderes de emergencia para aprovechar el potencial y hacer frente a los riesgos de esta nueva tecnología.
Sobre este aspecto se pronunció Federico Álvarez Larrondo, Árbitro Titular del Colegio de Abogados del Departamento Judicial de Mar del Plata.
En cuanto a las distintas visiones que existen sobre el vínculo de la Inteligencia Artificial con los seres humanos, Álvarez Larrondo dijo: “Los grandes promotores de estas tecnologías, que son Steve Wozniak y Bill Gates, entre otros, tienen esta idea de que la tecnología nos va a liberar y se va a construir algo mucho mejor que lo que hay en la tierra, para decirlo de alguna manera. La idea es que la tecnología nos va a hacer a todos mejores y que en realidad vamos rumbo a lo que sería el post-humanismo. Para algunos es el trans-humanismo, para otros es el post-humanismo, donde algunos dicen que somos un eslabón en la cadena del desarrollo, lo que nos remplazará a nosotros como humanos van a ser los robots, los sistemas de inteligencia artificial. Nosotros en esa mirada, solo cumplimos nuestro rol de generar el próximo eslabón”.
Por otro lado, explicó: “Otros piensan que lo que podemos hacer con esto es aumentar las capacidades de los seres humanos y tener seres humanos que van superando muchos de nuestros límites. Sostienen que la tecnología que nosotros creamos es para superar límites, creamos el avión para llegar más rápido a otro lugar, creamos el barco para poder caminar sobre el agua. Pero creo que nunca creamos tecnología para que nos reemplace. El tema es que todo lo que hicimos hasta ahora fueron tecnologías para reemplazar al músculo humano y en este momento entra en escena la posibilidad de reemplazar funciones vinculadas con nuestro cerebro. Como humanidad, me parece que nosotros en ningún momento nos planteamos ir hacia nuestra propia destrucción, pero la pregunta que tenemos que hacernos es: ¿está en riesgo la supremacía de la persona humana?”.
Para intentar contestar este interrogante, el abogado expresó: “Lo que estamos viendo hoy, que son estos sistemas generativos, parten de la idea que tenía Sam Altman, el director ejecutivo de OpenAI en su momento y que es la idea de la inteligencia artificial general. La inteligencia artificial general es una máquina que hace lo mismo que un ser humano y que toma decisiones al igual que las toma un ser humano. Si bien se hace por otros conductos, por otros fenómenos, la decisión la toma igual que nosotros. Eso siempre se decía que iba a pasar dentro de 50 años, sin embargo, hoy ya los científicos están fijando la fecha para el 2032. En 9 años ya consideran que podríamos tener inteligencia general artificial y el propio Sam Altman dice que si la mirás a chatGPT de alguna manera es una forma de inteligencia general artificial. Sin ir más lejos, esta misma semana acaban de lanzar en chatGPT la posibilidad de que cada uno de nosotros arme una versión específica, propia. Cualquiera de nosotros sin saber programar tiene esta opción y esto abre un escenario donde vos y yo lo podemos usar de manera positiva. Lo podés usar para lo que quieras o necesites, yo lo puedo hacer, por ejemplo, para que se especialice en darme respuestas en materia de derecho aeronáutico. Y después eso, la idea es que vos lo subas y que lo puedan usar otros para después monetizarlo. Es decir, que vas a ganar por generar y entrenar sin saber nada de código o programación”.
Frente a la problemática que esto representa, profundizó: “Es un antes y un después, porque vos le decís a la gente que se forme en carreras vinculadas a la tecnología, la informática, y ahora el diseño de la herramienta queda en manos de gente sin formación, bajo una premisa que supone que la mayoría de la humanidad es buena. No me parece que estos sean valores adecuados: suponemos que la mayoría de la gente es buena y entonces les tiramos esta opción sin ningún tipo de límite. Yo estoy de acuerdo con el desarrollo, pero no con esta postura de confiar en una suerte utópica, filosófica. Hace ya diez años, cuando veía los avances y los desarrollos me preocupaba que estábamos cerca de un escenario de dictadura de los tecnócratas. Los tecnócratas estaban diseñando el futuro y nadie les decía nada. Hoy tenemos una nueva generación de tecnócratas que todavía no terminamos de conocer. Si nos preguntan cuáles son las empresas más importantes de tecnología, todos vamos a decir Meta, Google. Eso ya es viejo, hoy las más importantes son Antropic, son Inflection, son todas estas que genera OpenAI. No son muy conocidas en el grueso, pero son las que están generando la inteligencia artificial generativa y dan a luz a ChatGPT, Cloud2, lo vas BART, Bing”.
“Todas esas empresas fueron conformadas por las personas que se fueron desencantadas de OpenAI cuando rompe con Elon Musk y se asocia con Microsoft. En ese momento deja de ser una ONG para pasar a ser una empresa corporativa. OpenAI era justamente inteligencia artificial abierta y ChatGPT esta idea de que todos pudiéramos tener y hacer una IA responsable. Esta era una ONG formada por pocos, pero que tenía esa idea de la inteligencia general responsable, porque le tenían miedo lo que había creado DeepMind, que era una empresa creada en Inglaterra por profesores de la Universidad de Oxford y que fue la primera que aplicó Machine Learning a gran escala. Cuando vieron que Google compró la tecnología y empezaba a tener herramientas muy poderosas, estos quisieron generar un cambio para hacer una suerte de contraposición”, detalló.
La preocupación de las potencias mundiales
Respecto del decreto que firmó el presidente de EEUU, Joe Biden, Álvarez Larrondo dijo: “Estados Unidos mira con mucha preocupación este desarrollo porque no estamos hablando de una industria, estamos hablando del dominio de todas las variables que puedan ocurrir en el mundo, porque esto abarca la economía, la filosofía, la política y está, no por encima, recontra por encima de un país. Estamos hablando de 10 tipos, pueden ser hombres y mujeres, personas, diez personas que están definiendo los próximos 10, 15 o 20 años de la humanidad y los países algo deben hacer”.
En cuanto a las razones que impulsaron esta decisión política explicó: “El miércoles pasado, en Inglaterra, el primer ministro británico Rishy Zuniak, convocó a líderes mundiales para hablar de los riesgos de la IA. Esta convocatoria da la pauta sobre la preocupación que genera el tema. Lo que nadie sabía era que dos días antes de esa reunión, la vicepresidenta de EEUU Kamala Harris iba a llevar bajo el brazo lo que había firmado el presidente Biden. Lo que firmaron sería como un decreto de necesidad de urgencia, pero que allá solamente lo puede revocar o con una ley el Congreso u otro presidente que venga después. Este decreto, en realidad, es un programa. Si uno quiere saber cómo se diseña una política de Estado, tiene que copiar y leer de punta a punta esta normativa. ¿Con qué objetivo este decreto de Biden? Bien, el título ya te lo dice todo: es para el desarrollo y uso seguro, confiable y fiable de la inteligencia artificial”.
¿Cómo es la intervención que propuso EEUU con el decreto de Biden?
En cuanto a los detalles del decreto, Álvarez Larrondo dijo: “No es algo que son declamaciones, como veníamos viendo hasta ahora. En 120 días, se le pide a la Secretaría de Comercio que haga un estudio sobre cómo impacta en los consumidores, qué medidas tenemos que tomar, cómo funciona. Plantean crear, por ejemplo, una agencia especial para que sea asesora del presidente en materia de inteligencia artificial. Articulan el análisis con la Secretaría de Defensa, con la Secretaría de Salud, con la Secretaría de Trabajo y a todos les fija plazos para que hagan informes, monitoreo, validaciones. Acá lo que hizo el presidente no esperar a que el Congreso se ponga de acuerdo. El plan empieza, por ejemplo, estableciendo la protección de los derechos civiles de los ciudadanos, estableciendo cómo se van a poner marcas de agua sobre todos los productos para saber cuándo y cómo fueron generados por una IA y cuándo fue generado por un humano. Voy al ejemplo concreto. Trump detenido, el Papa Francisco con un camperón blanco. Con este decreto de Biden, a partir de ahora en los Estados Unidos de Norteamérica, todo lo que se haga con inteligencia artificial, una fotografía o una imagen, va a tener una marca de agua. ¿Cuánta gente en el mundo todavía sigue creyendo que el Papa Francisco salió con un camperón blanco? Uno no mide el impacto que puede tener ese tipo de noticias”.
Asimismo, agregó: “El decreto también desarrolla todo lo que es ciberseguridad. Están muy preocupados con el tema de la información que puedan obtener por el tema de acceso a la información pública. Con la información se pueden entrenar sistemas generativos que pueden desarrollar armas biológicas mezclando componentes que hasta ahora no se conocen y de los que no tienen noción ni las fuerzas militares de los Estados Unidos. Estos sistemas leen, entre comillas, toda la bibliografía que hay sobre cuestiones químicas y, por lo tanto, puede descubrir que tal vez, mezclando un componente con otro, que a nosotros no se nos hubiese ocurrido, podés hacer algo peor que la bomba atómica. Por eso el decreto propone el desarrollo de áreas específicas dentro de cada una de las secretarías de Estado para analizar qué información se va a brindar. También propone monitorear cómo se usa esa información. y en estas tareas incluye no sólo a la Secretaría de Comercio, sino también al Ministerio de Defensa. Hemos estado alimentando durante años todo esto y lo seguimos alimentando. En cada entradita en Facebook, en cada cosa que escribas, en cualquier lado. Nosotros alimentamos esta herramienta, este monstruo, ponele el nombre que quieras”.
Respecto de la relevancia que tiene esta determinación política, expresó: “Acá hay un antes y un después, porque es el primer Estado que se toma en serio de manera integral la problemática. Lo pone como un asesor especial en inteligencia artificial del Presidente de los Estados Unidos. El 19 de noviembre acá en la Argentina, tenemos una elección y se habla mucho de la inflación, el dólar, el trabajo, la inseguridad, mil cosas. Pero la verdad, me parece que dentro de un año vamos a hablar 1400% más de inteligencia artificial de lo que estamos hablando ahora y nos van a empezar a caer todas las fichas. Argentina tiene que tomarse en serio la legislación de esta materia porque pronto los trabajadores van a encontrarse con que fueron reemplazados. El decreto de EEUU plantea un capítulo para el trabajo y la necesidad de trabajar con los sindicatos para empezar a monitorear los impactos de la IA en las empresas. Plantea también otro capítulo para la educación y plantea el tema de la migración. Cuando vos te querés quedar con el mundo, ¿qué vas a hacer? facilitas el acceso de la ciudadanía del mundo a Estados Unidos para ir a trabajar en inteligencia artificial. Van a dar visas, por diestra y siniestra, a todo aquel que demuestre especialización en inteligencia artificial. Se van a llevar todo el conocimiento del mundo para hacer un salto de calidad en los próximos dos años que va a dejar, creo yo, al resto del planeta mirando para otro lado. Eso va a ser una fuga, seguramente, de cerebros de todo el mundo, pero muchos argentinos seguramente y nos va a afectar sin duda”.
“¿Qué tendríamos que hacer? ¿Qué necesita Argentina a partir del 10 de diciembre? Sin duda necesita alguien que conozca en detalle el funcionamiento de la administración pública y trabajar en un modelo similar a este para la estructura interna de nuestro país, por lo menos para ser líderes en Sudamérica. No se trata de discutir Estado si o Estado no. Se trata de entender que el Estado es necesario en Eslovaquia, en los Estados Unidos, en Argentina, para llevar adelante la regulación de todo este tipo de cosas. Porque verdaderamente no es que abrimos una caja de Pandora, entregás la llave y entregás la caja directamente para que otro la abra, para que otro haga lo que quiera”, concluyó.
PortalUNMDP.