Tag

inteligencia artificial

Browsing

Facebook e Instagram requerirán que todos los anuncios políticos difundidos en sus plataformas divulguen si fueron creados con Inteligencia Artificial (IA), anunció el miércoles su compañía matriz, Meta.

Bajo la nueva política, los avisos sobre el uso de IA aparecerán en la pantalla cuando el usuario haga clic en uno de los anuncios.

La norma entrará en vigor el 1 de enero, y será aplicada a nivel internacional.

Al respecto, Microsoft dio a conocer el martes pasado sus iniciativas para el año electoral, incluida una herramienta que permitirá a las campañas insertar una marca de agua digital en sus anuncios.

Estas marcas de agua están destinadas a ayudar a los votantes a saber quién creó los anuncios y, al mismo tiempo, garantizar que otros no puedan alterar digitalmente la publicidad sin dejar evidencia.

Y es que la aparición y utilización de la Inteligencia Artificial ha hecho más fácil generar sonidos, imágenes y video de apariencia genuina. Expertos han alertado que en manos mal intencionadas, ello podría derivar en videos falsos de un candidato o imágenes preocupantes de fraude electoral o violencia en centros de votación.

A esto habría que añadir el riesgo de que, al combinarse con los algoritmos de las redes sociales, tales contenidos podrían engañar o confundir a votantes a una escala nunca vista.

Meta y otras plataformas tecnológicas han sido acusadas de no hacer lo suficiente para encarar el problema que la IA ha puesto sobre la mesa.

Aunque las autoridades europeas han tomado alunas medidas, en Estados Unidos y otros países que celebrarán elecciones en los próximo meses, se ha hecho poco.

Estados Unidos no es el único país que tendrá elecciones importantes el año entrante. Lo mismo ocurrirá en México, Sudáfrica, Ucrania, Taiwán y Pakistán, entre otros.

Los anuncios políticos generados por la IA ya han aparecido en Estados Unidos. En abril, el Comité Nacional Republicano difundió un espacio generado totalmente con Inteligencia Artificial que supuestamente muestra el futuro del país si Biden es reelegido. Incluía fotos falsas de tiendas cerradas, militares patrullando las calles y olas de migrantes sembrando el pánico. El anuncio sí traía un aviso de que contenía Inteligencia Artificial.

El consejero delegado de Tesla y propietario de la red social X, Elon Musk, llamó este miércoles a crear un “árbitro independiente” que vele por un desarrollo seguro de la Inteligencia Artificial (IA), a la que calificó como una de las “principales amenazas para la humanidad”.

En el marco de la cumbre de seguridad de IA que se celebra en Reino Unido, el magnate estadounidense defendió la necesidad de regular la actividad de las empresas que desarrollan esos sistemas.

“Creo que lo que realmente queremos hacer aquí es establecer un marco de trabajo para la vigilancia. Que haya al menos una tercera parte, un árbitro independiente, que pueda observar lo que están haciendo las compañías punteras en IA y dar la voz de alarma si les suscitan preocupaciones”, afirmó Musk.

El magnate alertó que por primera vez se está en una situación en la que hay algo que va a ser más listo que el más listo de los humanos.

En su opinión, “no está claro si podemos de hecho controlar algo como eso, pero creo que debemos aspirar a guiarlo hacia una dirección que sea beneficiosa para la humanidad”.

Musk afirmó que no ha acudido a la cumbre para defender ninguna política en particular. “Estoy diciendo que intentemos establecer un marco de trabajo para la vigilancia por parte de terceras partes neutrales”, detalló.

Una vez dado ese paso, “se propondrán ciertas políticas o ciertas legislaciones, y eso se hará en colaboración con las compañías de IA”, agregó.

El magnate participa en la cumbre de Bletchley Park junto con 29 gobiernos y organizaciones mundiales, entre ellos Estados Unidos, China y la Unión Europea, y las principales tecnológicas del sector de la IA, como OpenAI, Google DeepMind y Anthropic.

Analistas aseguran que la cumbre ya tuvo un logro inicial cuando funcionarios de 28 países y la Unión Europea firmaron un acuerdo sobre el desarrollo seguro y responsable de la tecnología.

La Inteligencia Artificial de última generación está llevando la tecnología hasta sus límites, pero podría venir con peligros hasta ahora desconocidos. Se sustenta sobre modelos fundacionales que potencian bots conversacionales como el ChatGPT de OpenAI y el Bard de Google y están entrenados con el enorme acervo de información disponible en internet.

Reino Unido alberga este miércoles y jueves una cumbre internacional en la que las principales potencias mundiales y grandes firmas tecnológicas tratarán de definir estrategias comunes para afrontar los riesgos de la inteligencia artificial (IA).

Al encuentro en Bletchley Park, el emblemático enclave inglés donde se decodificaron los mensajes nazis durante la Segunda Guerra Mundial, están invitados 27 países, entre ellos Estados Unidos, China, India y miembros de la Unión Europea como Alemania, Francia y España.

Acudirán también directivos de firmas clave como OpenAI, Google Deepmind, Anthropic, Meta, Microsoft y Nvidia.

Se espera la presencia de la vicepresidenta de Estados Unidos, Kamala Harris, y de la presidenta de la Comisión Europea, Ursula von der Leyen, entre otros líderes políticos, así como la participación de figuras de la industria como el dueño de Tesla y X, Elon Musk.

Durante el encuentro se abordarán los potenciales riesgos futuros de la IA, desde su capacidad para facilitar el terrorismo, los ciberataques y la fabricación de armas biológicas, hasta peligros más extremos e hipotéticos como la posibilidad de que los humanos pierdan el control de los sistemas autónomos.

Estarán asimismo sobre la mesa las implicaciones de las herramientas que ya están a disposición del público en ámbitos como la desinformación y el mercado laboral.

Los organizadores quieren centrar el debate en los riesgos “de frontera”, asociados a los modelos de IA más evolucionados, todavía en desarrollo.

Durante la primera jornada de la cumbre, ministros responsables del sector digital, expertos y miembros de las tecnológicas dialogarán sobre los posibles peligros y vías para contrarrestarlos.

Se espera que los países participantes firmen un comunicado conjunto al término de la cumbre en el que alerten sobre los riesgos que afronta la comunidad internacional y establezca marcos comunes de colaboración.

Sin embargo, hay críticas en torno a la cumbee. El Gobierno británico no ha logrado atraer a la conferencia a líderes como el presidente de Estados Unidos, Joe Biden, ni se espera la presencia de mandatarios europeos como el presidente francés, Emmanuel Macron, y el canciller alemán, Olaf Scholz.

Aún así, subraya que sentar en una misma mesa a representantes de Washington y Pekín, y lograr que ambas potencias rivales acepten alinearse en una declaración conjunta será por sí solo un éxito importante.

La cumbre inicia un día después de que el presidente Joe Biden emitiera una orden ejecutiva destinada a establecer estándares de seguridad para el desarrollo de la inteligencia artificial y abordar los riesgos de la nueva tecnología.

“La orden establece nuevos estándares para la seguridad en el campo de la IA, protege la privacidad de los estadounidenses, promueve la equidad y los derechos civiles, defiende a los consumidores y trabajadores, fomenta la innovación, la competencia y el liderazgo estadounidense a nivel global”, dijo la Casa Blanca en un comunicado.

Añade que los desarrolladores de sistemas de inteligencia artificial más potentes” deben compartir los resultados de sus pruebas de seguridad y todo tipo de información crítica con el Gobierno antes de hacerlos públicos.

La moción, que Biden firmó en la Casa Blanca, también ordena a las agencias que establezcan estándares para esas pruebas y aborden los riesgos químicos, biológicos, radiológicos, nucleares y de ciberseguridad pertinentes.

Bajo este orden, el Instituto Nacional de Estándares y Tecnología establecerá patrones rigurosos para pruebas exhaustivas de ciberseguridad en pos de garantizar la ausencia de riesgo antes de su divulgación al público. También establece acciones a cargo del Departamento de Seguridad Nacional y del Departamento de Comercio.

Spotify anunció este lunes que empezará a poner a prueba un programa que usa Inteligencia Artificial para traducir podcast del inglés a otros idiomas, entre ellos el español, todos con la voz original.

La nueva herramienta recurre a la tecnología de generación de voz de OpenAI para copiar el estilo original del locutor y lograr una experiencia “que suena más personal y natural que el doblaje tradicional”, explicó la compañía en un comunicado.

El proyecto inicial, que traducirá las voces también al francés y el alemán, incluye acuerdos con creadores de contenido como Dax Shepard, Monica Padman, Lex Fridman, Bill Simmons y Steven Bartlett para un número selecto de episodios ya en catálogo y otros futuros lanzamientos.

Spotify mencionó también que planea incluir otros programas, entre ellos “The Rewatchables” de The Ringer y el nuevo pódcast de Trevor Noah.

“Ajustándose a la propia voz del creador, Voice Translation les da a oyentes de todo el mundo el poder para descubrir e inspirarse en nuevos podcasteros de forma más auténtica que antes”, señaló la firma sueca.

Los episodios estarán disponibles en próximos días en todo al mundo para los usuarios “premium” y “free” de la plataforma.

Google anunció este martes que las nuevas herramientas de inteligencia artificial (IA) de sus servicios de videotelefonía Google Meet podrán “asistir” en lugar del usuario a una reunión y tomar notas.

“Con la función ‘asiste por mí’, Duet AI podrá participar en la reunión en tu lugar, hacer que tu mensaje se escuche y, por supuesto, prepararte un resumen”, destacó la empresa en un comunicado.

Entre las nuevas funciones de Google Meet, que se anunciaron hoy en el marco del evento Google Cloud Next, están: los subtítulos con traducción automática en 18 idiomas, tomar notas, hacer resúmenes y crear clips de la reunión.

Asimismo, los usuarios podrán hablar en privado con un chatbot de Google para repasar detalles de la conferencia en curso.

Según Dave Citron, director sénior de producto de Google para Meet, ha habido tres “eras de innovación” para las videoconferencias.

La primera fue la pandemia, cuando mucha gente utilizó por primera vez estos servicios; la segunda fue el regreso a un entorno de trabajo híbrido y la tercera es ahora, con la llegada de la IA.

“Ahora es el punto de inflexión que alcanzamos en los últimos ocho meses con modelos de lenguaje LLM y modelos de difusión”, señaló Citron.

Google anunció hoy que implementará su asistente Duet AI en todas sus aplicaciones Workspace, incluidas Gmail, Drive, Slides y Docs por un precio mensual de 30 dólares por usuario, al menos para las grandes organizaciones.

Aparna Pappu, directora de Workspace, dijo a CNBC que Google no ha fijado los precios para las empresas más pequeñas.

Ese es el mismo precio que Microsoft cobra por su sistema de IA llamado Copilot, con características similares que funcionan en la mayoría de las aplicaciones de Office.

Ayer, OpenAI, compañía que se popularizó el año pasado tras el lanzamiento de su chatbot ChatGPT, lanzó ChatGPT Enterprise, una versión para empresas. No obstante, la compañía no hizo público el precio de suscripción.

Meta ha creado una herramienta de Inteligencia Artificial (IA) generativa llamada AudioCraft, que está diseñada para generar audio y música a partir de entradas de texto y que se entrena con señales de audio sin procesar.

AudioCraft engloba tres modelos de lenguaje: EnCodec, AudioGen y MusicGen, siendo esta última la que presentó el pasado mes de junio como un modelo simple de lenguaje desarrollado bajo un enfoque de una sola etapa de patrones de tokens eficientes entrelazados.

En este caso, Meta ha recordado que MusicGen es un modelo entrenado con música propiedad de la compañía y con licencia específica, que genera música a partir de entradas de usuario basadas en texto.

AudioGen, por su parte, se entrenó con efectos de sonido de uso público y genera audio a partir de entradas de usuario basadas en texto. Finalmente, el decodificador EnCodec, permite “generar música de mayor calidad con menos artificios”. Todos estos modelos están disponibles para fines de investigación.

Meta ha reconocido que, si bien los modelos de lenguaje de IA generativa han generado expectación y demostrado “habilidades excepcionales”, no se ha mostrado el mismo interés por la IA generativa de audio.

Esto podría deberse a “que la música es el tipo de audio más difícil de generar porque se compone de patrones locales y de largo alcance, desde un conjunto de notas hasta una estructura musical global con múltiples instrumentos”, según ha comentado en el anuncio de AudioCraft.

Esta herramienta de IA generativa de música y sonido de código abierto, que también ofrece la capacidad de compresión, permite que los usuarios trabajen sobre la misma base de código bien construir sobre lo que otros han hecho.

De ese modo, estos creadores pueden ampliar estos modelos y adaptarlos a sus casos de uso para la investigación, para lo que Meta ofrece “posibilidades casi ilimitadas”, según este documento.

YouTube está preparando una nueva función con la que se podrán generar resúmenes de los vídeos de la plataforma de manera automática gracias a la Inteligencia Artificial (IA).

Google ha comenzado a probar los resúmenes generados automáticamente por IA en YouTube, que se incluyen tanto en la página de visualización como en la de búsqueda, según ha compartido en una actualización de su página de soporte.

Estos resúmenes tienen por objetivo ofrecer una breve descripción general del contenido de un vídeo para ayudar a los usuarios a elegir lo que desean ver, y se mostrarán en las páginas de visualización y búsqueda de Youtube.

La compañía ha detallado que estos resúmenes “no reemplazan las descripciones de los vídeos que están escritas por los creadores” y que, por el momento, se está probando con una cantidad limitada de vídeos y de espectadores.

Apple está trabajando en ofertas basadas en Inteligencia Artificial similares a ChatGPT de OpenAI y Bard de Google, informó este miércoles Bloomberg News.

La agencia cita a personas con conocimiento del asunto, lo que hizo subir las acciones de la empresa un 2% en la sesión de hoy.

El fabricante del iPhone ha construido su propio marco, conocido como “Ajax”, para crear grandes modelos de lenguaje (LLM) y también está probando un chatbot que algunos ingenieros llaman “Apple GPT”, según el informe.

Varios equipos están involucrados en el esfuerzo, que está dirigido por John Giannandrea, jefe de aprendizaje automático y la IA de la compañía, y Craig Federighi, máximo ejecutivo de ingeniería de software de Apple, según el informe.

Apple podría hacer importantes anuncios relacionados con la IA el año que viene, de acuerdo al reporte. Las acciones de Microsoft, Nvidia y Alphabet presentaron caídas tras el informe.

Elon Musk anunció este miércoles el lanzamiento de xAI, una nueva empresa centrada en el desarrollo de Inteligencia Artificial (IA), cuyos detalles se espera sean compartido a finales de la semana

“El objetivo de xAI es comprender la verdadera naturaleza del universo”, afirma la start-up en su página web, sin dar más detalles por el momento.

El propio Musk explicó en Twitter que la ambición de xAI era “entender la realidad”.

La web anuncia una sesión de preguntas y respuestas el viernes en Twitter para hablar de esta recién llegada a la IA.

La compañía se estableció formalmente en Nevada en marzo pasado, según el registro corporativo del estado, pero dice que su equipo técnico está basado en el área de San Francisco, California. En el momento de su registro, Musk figuraba como el director de xAI.

El equipo de xAI, “liderado por Elon Musk”, según la web, está formado por reconocidos especialistas en Inteligencia Artificial, entre ellos algunos de OpenAI, creadora de ChatGPT, Google y Microsoft.

Hace varios meses, el multimillonario reconoció que había comprado una gran cantidad de unidades de procesamiento gráfico (GPU), esenciales para el desarrollo de software de IA, sin revelar qué pensaba hacer con ellas.

En una entrevista con el presentador de Fox Tucker Carlson en abril pasado, Musk dijo que planeaba “crear una tercera opción” entre quienes dominan actualmente el desarrollo de la dicha tecnología:  Microsoft/OpenAI y Google.

Los dos gigantes tecnológicos han creado las interfaces más avanzadas para la llamada IA generativa.

Según el magnate, un modelo de inteligencia artificial “que se interesara por el universo probablemente no destruiría la especie humana, porque somos una parte interesante del universo. Esperemos que piense así”.

El anuncio llega en medio de la polémica que ha generado Musk al enfrentarse a Mark Zuckerberg por el lanzamiento de Threads, una aplicación que compite directamente con Twitter.

Elon Musk se volvió a mostrar partidario de regular la Inteligencia Artificial (IA), algo en lo que ha venido insistiendo de meses atrás.

“Estoy a favor de la regulación, hay que tener alguna regulación para la Inteligencia Artificial porque puede ser un riesgo para el público”, manifestó este viernes Musk en París, donde fue el invitado de honor al certamen tecnológico VivaTech.

El magnate estadounidense nacido en Sudáfrica insistió en señalar las consecuencias potencialmente “catastróficas” de la IA en la vida de las personas. “Tenemos que darnos una pausa (…) Hay que minimizar la posibilidad de que algo vaya mal con la aplicación de la súper inteligencia”, aseguró.

“Se trata de la tecnología más rompedora que jamás hemos visto”, abundó Musk, considerado uno de los precursores de herramientas como Chat GPT. No obstante, destacó que la IA tiene algunos puntos positivos: “Nos dirigimos a la era de la abundancia, podemos tener todo lo que queramos”, añadió.

Al hacer estas afirmaciones, el entrevistador le cuestionó si no sería también buena idea regular Twitter, a lo que Musk respondió con un rotundo “no”.

El multimillonario defendió su criticada gestión en Twitter, por la que reconoció haber pagado “caro”, en referencia a los 44,000 millones de dólares que desembolsó a finales de 2022.

“Estaba preocupado porque Twitter estaba teniendo un efecto negativo en la civilización y todo lo que afecta a la civilización no es bueno”, opinó el dueño de la red social, que ha perdido una buena parte de su valor en bolsa desde que la adquirió mientras puso en marcha un drástico plan de despidos.

Aseguró que Twitter se ha desecho del 90% de los “bots” y presumió de es la única compañía del sector cuyo algoritmo de funcionamiento “no es un secreto”. “Los usuarios pasan más tiempo en nuestra red, esa es muy buena señal”, abundó.

Sobre su negativa a regular la plataforma, Musk se definió como “un defensor de la libertad de expresión” y consideró que los límites de la misma lo marcan las leyes de cada país.

Aclaró que la red que dirige “no promoverá cosas ofensivas”, pero también advirtió de que no se debe caer “en la línea de la censura” que, en su opinión, acaba por empobrecer el debate público.

Antes de su intervención en VivaTech, Musk fue recibido por el presidente francés, Emmanuel Macron, quien procura convencer al empresario que instale una fábrica de Tesla en este país.

El director ejecutivo de Apple, Tim Cook, dijo que la tecnología que está detrás de los chatbots con inteligencia artificial (IA) generativa es tan “poderosa” y cambia tan rápido que los gobiernos van a tener dificultades para regularla, por lo que abogó por una regulación que parta de las propias empresas.

Las empresas que generan la IA deben “regularse a sí mismas” más allá de las normas que los estados implanten, dijo en una entrevista con la cadena ABC publicada este martes.

“La regulación (estatal) tendrá dificultades para mantenerse al día con el progreso de esta tecnología porque se está moviendo muy rápido”, por lo que “las empresas tienen que aplicar sus propias decisiones éticas”.

Cook señaló que los modelos grandes de lenguaje (LLM) -que está detrás de chatbots como ChatGPT de OpenAI, Bing de Microsoft y Bard de Google- son muy “prometedores”, pero que pueden tener un doble filo.

“Creo que es muy importante ser muy decidido y reflexivo en el desarrollo y la implementación de estos (LLM) porque al ser tan poderosos uno se preocupa por cosas como la desinformación”, detalló el ejecutivo en el programa “Good Morning America” de ABC.

La semana pasada, un grupo de más de 300 expertos e investigadores de la industria, entre los que se encuentran el director ejecutivo de Google DeepMind, Demis Hassabis; el director ejecutivo de Anthropic, Dario Amodei, y el director ejecutivo de OpenAI, Sam Altman, entre otros, advirtieron en una carta que la IA plantea un “riesgo de extinción” comparable al de las pandemias o la guerra nuclear.

Cook dijo en la entrevista que él mismo usa el ChatGPT, y que esta tecnología es algo que su compañía “está mirando de cerca”.

Con respecto a la IA en general, el principal representante de la compañía de la manzana dijo que es una tecnología que ya está integrada en sus productos, pero que la gente cuando los usa no piensa “en ello como IA”.

Esta semana Apple celebra su Conferencia Mundial de Desarrolladores (WWDC, en inglés) que se desarrolla en su sede de Cupertino (EE. UU.) y ayer la compañía presentó varios productos, de los que el más destacado fue Apple Vision Pro, un set de gafas y auriculares de realidad mixta con el que los usuarios podrán experimentar experiencias de realidad virtual y realidad aumentada.

El director ejecutivo de OpenAI, Sam Altman, creador de la interfaz ChatGPT, alertó este lunes sobre una “reglamentación estricta” de la Inteligencia Artifical (IA), que amenaza con frenar su desarrollo, aunque reconoció la necesidad de una vigilancia a largo plazo.

Recordemos que Altman defendió el mes pasado, ante una comisión en el Congreso de los Estados Unidos, la intervención de los gobiernos para regular la IA y dijo que era “clave” para “limitar los riesgos” vinculados con esta tecnología.

Sin embargo, este lunes subrayó que su llamado para una mayor regulación no iba dirigido a “los sistemas actuales”.

“Creo que una reglamentación estricta de este sector o intentar ralentizar esta increíble innovación sería un error”, declaró en la Universidad de Tel Aviv, durante una visita que el directivo realiza por Israel.

Altman reconoció que el riesgo de una “superinteligencia” mal usada era real. Es “algo que deberemos tal vez afrontar a lo largo de la próxima década y eso no deja mucho tiempo a las instituciones del mundo para adaptarse”, señaló.

La visita del empresario estadounidense a Israel forma parte de su gira mundial, que inició el mes pasado, y que busca tranquilizar a líderes y autoridades sobre las implicaciones de la IA; Altman aboga por una regulación que no sea demasiado restrictiva para su negocio.

Y es que la Inteligencia Artificial generativa de OpenAI, abierta al gran público a fines de 2022, ha generado una avalancha de temores en cuanto a su posible uso a fines de desinformación, destrucción de empleo y robo de derechos de autor.

En una reunión con el presidente israelí, Isaac Herzog, Altman insistió en la “urgencia” de “encontrar la forma de mitigar estos enormes riesgos”.

La bancada del PAN en la Cámara de Diputados presentó una iniciativa para expedir la Ley de Regulación Ética de la Inteligencia Artificial y la Robótica, cuyo objeto, indicaron los legisladores, es regular y normar el uso de estas tecnologías con fines gubernamentales, económicos, comerciales, administrativos, comunicacionales y financieros, con apego a la ética y al derecho.

La propuesta, enviada a la Comisión de Ciencia, Tecnología e Innovación, con opinión de la de Presupuesto y Cuenta Pública, busca establecer lineamientos de políticas públicas en México para la regulación ética del uso de la Inteligencia Artificial (IA) y la Robótica dentro del territorio nacional.

La iniciativa, firmada por las diputadas y los diputados del PAN, plantea fomentar la creación de Normas Oficiales Mexicanas, basadas en principios éticos, para el buen uso de la IA y la Robótica en beneficio de la sociedad mexicana, siempre respetando los derechos humanos, la paridad entre los géneros, sin discriminación alguna por raza, origen étnico, religión, clase social o posición económica.

Busca crear el Consejo Mexicano de Ética para la Inteligencia Artificial y la Robótica como organismo público descentralizado; además, la Red Nacional de Estadística de Uso y Monitoreo de la Inteligencia Artificial y la Robótica y vincula a los organismos autónomos con la regulación de su uso en territorio nacional, y estipula que el Instituto Nacional de Estadística y Geografía será el centro generador de información sobre el uso de la IA en el país.

En la exposición de motivos, señala que es necesario comenzar a normar esta materia, pues en la actualidad las leyes no abordan a profundidad la regulación de la IA, concepto que gana terreno en todo el mundo, ante lo cual el reto es crear un marco legal y ético para su desarrollo, implementación y utilización.

Considera que la IA implica el uso de algoritmos y modelos matemáticos que procesan grandes cantidades de datos para tomar decisiones; realiza tareas que antes eran reservada a las personas, y su crecimiento “obliga a estar atentos para prevenir y analizar las posibles desventajas directas o indirectas que pueda generar su proliferación”.

La IA, precisa, presenta un acelerado y claro crecimiento en nuestro país sin regulación legal, dejando un vacío entre las leyes y su implementación.

El diputado Ignacio Loyola Vera del PAN recordó que existe una preocupación internacional por la creación de normas y esquemas legales que proporcionen un marco regulatorio prudente y pertinente pues, considerando que es un sistema organizado para imitar la inteligencia humana y concentrar información, “su uso perverso no queda exento”, por lo que su posible utilización facciosa y manipulación constituyen un reto que se debe enfrentar.

La IA no es una moda, apunta la exposición de motivos de la iniciativa, por lo que estima oportuno regularla desde ahora y no esperar que su utilización sea un comportamiento generalizado; “será demasiado tarde”.

Sam Altman, jefe de OpenAI y creador de ChatGPT, está recorriendo el mundo para tranquilizar sobre los riesgos de la Inteligencia Artificial (AI) y advertir acerca de proyectos de regulación quizá demasiado restrictivos.

Dieciséis ciudades, cinco continentes, reuniones cara a cara con jefes de Estado, conferencias en universidades e incluso una aparición en la reunión que el grupo Bilderberg, el discreto club de dirigentes políticos y económicos mundiales.

Ese es el impresionante cartel del “OpenAI Tour”, como lo denominó la empresa californiana.

La gira ilustra el estatus de gurú mundial de la Inteligencia Artificial que se ha ganado Sam Altman, de 38 años, a raíz del fulgurante éxito de su robot conversacional ChatGPT.

Pero ahora debe responder a los temores que éste provoca: desinformación, manipulación de elecciones, destrucción masiva de empleos, robo a creadores e, incluso, amenaza global para la humanidad.

Europa y Estados Unidos están estudiando regular el sector, luego de que numerosas personalidades pidieran en marzo pasado una pausa en la investigación, mientras Italia suspendió ChatGPT tres semanas por uso no consentido de datos personales.

El sábado, los países del G7 decidieron crear un grupo de trabajo y, en Bruselas, el comisario europeo Thierry Breton sugirió poner en marcha rápidamente un pacto sobre la Inteligencia Artificial.

Sam Altman explicó en Twitter que preveía reunirse con usuarios y reguladores durante su gira.

Su campaña empezó con una comparecencia ante los senadores estadounidenses el 16 de mayo, donde causó sorpresa al exclamar: ¡regúlenme!”. Tomando la delantera, declaró que lo que más miedo le da es que la AI pueda causar “importantes daños al mundo” y propuso crear una agencia mundial de regulación.

Sin embargo, también consideró que se podrían crear numerosos empleos y recalcó los riesgos que podría entrañar una regulación demasiado estricta pues, “si la industria estadounidense se ralentiza, China o cualquier otro podrán avanzar más rápido”.

Al día siguiente, el directivo viajó a Rio de Janeiro, y luego fue a Lagos (Nigeria) y a Lisboa. Esta semana, visitó Madrid, Londres, París, Varsovia y Múnich. Sus próximas paradas serán Tel Aviv, Dubái, Nueva Delhi, Singapur, Yakarta, Seúl, Tokio y Melbourne.

Por las ciudades por donde pasa, Altman repite su discurso, que mezcla optimismo y advertencia, para tratar de convencer de que la AI no escapará al control humano.

En París, Varsovia y Madrid fue recibido como si de un jefe de Estado se tratara, reuniéndose respectivamente con el presidente francés Emmanuel Macron y con los jefes de gobierno polaco y español Mateusz Morawiecki y Pedro Sánchez, todos ellos deseosos de aprovechar esta oportunidad económica, aunque recordando la necesidad de establecer un control.

En Rio, en el Museo del Mañana, defendió la necesidad de regular, pero insistió en que espera que ChatGPT dé lugar a “un avance científico real” y que “mejore la vida de la gente”. De manos del alcalde de Rio de Janeiro, Eduardo Paes, que se mostró entusiasta, recibió simbólicamente las llaves de al ciudad.

En Londres, sin embargo, su llegada generó menos consenso. En el University College se formó una fila de alumnos deseosos de escucharle, pero también una protesta con un puñado de participantes. “No deberíamos permitir que multimillonarios de Silicon Valley con complejo de mesías decidan lo que queremos”, declaró un estudiante.

En tanto, Sam Altman advirtió que OpenAI podría “dejar de operar” en la Unión Europea si el futuro reglamento le imponía demasiados límites.

El director ejecutivo y cofundador de Open AI, desarrolladora del programa de generación de texto ChatGPT, Sam Altman, pidió este martes al Congreso de Estados Unidos que regule el desarrollo y los usos de la inteligencia artificial (IA).

En una comparecencia ante un subcomité del Senado, Altman hizo un listado de las aplicaciones beneficiosas de la tecnología, desde la medicina hasta la lucha contra la crisis climática, y confió en que la IA puede ser utilizada para el beneficio de la humanidad.

Sin embargo, matizó que es necesaria la intervención de los gobiernos del mundo para asegurar que estas herramientas se desarrollan de manera que protejan y respeten los derechos y las libertades de los ciudadanos.

“Creemos que los beneficios de las herramientas que hemos desarrollado hasta ahora superan ampliamente los riesgos”, defendió el empresario durante la audiencia.

El testimonio de Altman se produce en medio de la preocupación por parte de las autoridades estadounidenses por la posibilidad de que el rápido avance de las tecnologías de IA tenga efectos inesperados sobre la sociedad.

Los legisladores citaron riesgos como la pérdida de empleos o el uso de herramientas de creación de contenidos para generar información falsa por parte de actores extranjeros.

Para ilustrar sus preocupaciones, el senador Richard Blumenthal, presidente del subcomité de Privacidad, Tecnología y la Ley e impulsor de la audiencia, emitió una grabación realizada con inteligencia artificial que había sido escrita por ChatGPT, imitando el estilo y los principales focos de interés del congresista.

Altman admitió que probablemente la IA afectará al mercado laboral, pero se mostró optimista en que a la larga, la tecnología generará más empleos nuevos de los que destruirá. “Somos tremendamente creativos”, confió el empresario.

Altman también se mostró abierto a la sugerencia de Blumenthal de que el gobierno desarrolle laboratorios independientes para comprobar la fiabilidad de los modelos de inteligencia artificial, y que les darían una nota similar a la calificación nutricional de los alimentos.

El responsable de OpenAI admitió que sus productos todavía cometen errores, pero que con el tiempo se volverán más y más fiables.

Otro de los senadores impulsores de la audiencia, el republicano Josh Hawley, aseguró que la inteligencia artificial es “una de las innovaciones más significativas de la historia”, pero que todavía no está claro si será más parecida a la invención de la imprenta o a la de la bomba atómica.

Los congresistas defendieron que si bien es cierto que se necesita regulación pública, las empresas de IA como OpenAI no tienen que esperar al Congreso para instaurar mecanismos que permitan controlar el desarrollo de la tecnología para mitigar los daños.

El presidente ejecutivo de OpenAI, Sam Altman, comparecerá por primera vez ante una comisión del Senado la próxima semana, justo cuando el Congreso de Estados Unidos debate sobre la mejor manera de regular la inteligencia artificial.

Altman testificará el martes ante la Subcomisión de Privacidad, Tecnología y Derecho del Senado sobre las leyes que podrían ser necesarias para proteger a los estadounidenses a medida que el Gobierno y las empresas empiezan a utilizar la IA en todos los ámbitos.

Será el primer testimonio de Altman ante el Congreso, informó el panel al anunciar la audiencia.

Altman también asistirá a una cena una noche antes que se ofrece para los miembros de la Cámara de Representantes, según la oficina del representante Ted Lieu, coanfitrión del evento.

La semana pasada, Altman participó en una reunión de la Casa Blanca sobre IA en la que se debatió cómo garantizar salvaguardias normativas.

En respuesta a una pregunta sobre si las empresas están de acuerdo en la normativa, Altman dijo a los periodistas: “Sorprendentemente estamos de acuerdo en lo que debe ocurrir”.

También comparecerá Christina Montgomery, directora de privacidad de IBM.

“La inteligencia artificial necesita urgentemente normas y salvaguardias para hacer frente a sus inmensas promesas y escollos”, dijo el senador Richard Blumenthal, presidente del panel. “Esta audiencia inicia el trabajo de nuestro Subcomité para supervisar e iluminar los avanzados algoritmos y la poderosa tecnología de la IA”, remató.