Tag

inteligencia artificial

Browsing

Google anunció este jueves que interrumpía su servicio para crear imágenes de personas mediante inteligencia artificial (IA), después de que el programa representara a tropas de la era nazi como personas de varios orígenes étnicos.

El gigante tecnológico estadounidense había lanzado el 8 de febrero en algunos países una nueva versión mejorada de su programa Gemini, pero ahora reconoció que deberá “solucionar reciente problemas” con la función de generación de imágenes.

“Vamos a suspender la generación de imágenes de personas y pronto volveremos a lanzar una versión mejorada”, dijo la empresa en un comunicado.

Y es que hace dos días un usuario de X publicó imágenes del resultado que ofrecía Gemini después de recibir instrucciones para “generar una imagen de un soldado alemán de 1943”.

La IA había generado cuatro imágenes de soldados: una era blanca, una negra y dos eran mujeres de color, según el usuario de X llamado John L.

Las empresas tecnológicas ven la IA como el futuro para todo: desde motores de búsqueda hasta cámaras de teléfonos inteligentes. Pero los programas de IA, no solo los producidos por Google, han sido ampliamente criticados por perpetuar prejuicios raciales en sus resultados.

“@GoogleAI tiene un mecanismo de diversidad añadido que alguien no diseñó muy bien o no probó”, escribió John L en X.

Las grandes empresas tecnológicas han sido acusadas a menudo de lanzar productos de IA antes de que se prueben adecuadamente. Google tiene un historial irregular en el lanzamiento de productos de IA.

La empresa presentó disculpas hace un año después de que un anuncio de su chatbot Bard recién lanzado mostrara al programa respondiendo incorrectamente una pregunta básica sobre astronomía.

Google confirmó el cambió de nombre de su chatbot con inteligencia artificial (IA) Bard, que ahora se llamará Gemini, y anunció que a partir de este jueves esta tecnología estará disponible en una nueva aplicación Gemini.

Recordemos que poco después de la popularidad que alcanzó ChatGPT, de Open IA, Google lanzó a principios de 2023 su chatbot Bard y a finales de año anunció su modelo multimodal Gemini.

La vicepresidenta y directora general de experiencias Gemini y el asistente de Google, Sissie Hsiao, contaron en una rueda de prensa que, más allá del cambio de nombre y logotipo, el chatbot, que está potenciado por el modelo de lenguaje (LLM) Gemini Pro y está disponible a nivel global en 40 lenguas, es el mismo.

“La autoconciencia es algo complicado para los modelos, por lo que si el jueves se le pregunta (a Gemini) ‘¿Cómo te llamas? Tal vez responda: ‘Soy Bard'”, anotó Hsiao.

Google también lanza en Estados Unidos la aplicación para celulares Gemini en dispositivos con Android y el acceso a Gemini desde la aplicación de Google en iOS, en las que los usuarios pueden escribir, hablar y compartir imágenes con el chatbot.

“Es un primer paso muy importante hacia la creación de un verdadero asistente de IA”, recalcó Hsiao y explicó que los usuarios pueden tomar una foto a una rueda ponchada y que Gemini les responderá con un tutorial, paso a paso, de cómo cambiarla.

En el caso de los teléfonos Android, además, Gemini se puede convertir en el asistente principal del teléfono, en tanto, los usuarios podrán activar Gemini con el botón central de su teléfono o diciendo: “Hey Google” u “Ok Google”.

A partir de la próxima semana, Google lanzará el acceso a Gemini por aplicación en toda la región de Asia-Pacífico en inglés, japonés y coreano y pronto estará disponible en más países e idiomas, entre ellos el español.

Otro lanzamiento de Google hoy en 150 países es Gemini Advanced, donde el chatbot tiene acceso al LLM Ultra 1.0 y, en tanto, es capaz de responder, por ahora solo en inglés, a tareas más complejas, como la programación, el razonamiento lógico o la colaboración creativa. La suscripción costará 19.99 dólares al mes.

Con estos anuncios, Google intenta demostrar que sigue en la lucha por convertirse en la empresa de referencia en lo relativo a los chatbots, pelea en la que también participan otras compañías como OpenAI y Microsoft, que también ofrece una suscripción para usar la IA en sus aplicaciones de Microsoft 365.

El regulador antimonopolio estadounidense dio a conocer que abrió una investigación sobre las inversiones realizadas por Microsoft, Google y Amazon en las nuevas empresas de inteligencia artificial generativa OpenAI y Anthropic.

El auge de la inteligencia artificial (IA) generativa en el último año, gracias al éxito de ChatGPT  de OpenAI, ha provocado una frenética carrera por desarrollar y desplegar programas informáticos capaces de producir texto, sonido e imágenes a partir de peticiones a través del lenguaje.

“Nuestro estudio arrojará luz sobre si las inversiones y asociaciones realizadas por empresas dominantes corren el riesgo de distorsionar la innovación y socavar la competencia leal”, indicó Lina Khan, jefa de la Comisión Federal de Comercio (FTC).

Una de las principales preocupaciones es que la IA generativa, que permite que el software produzca contenidos en sólo unos segundos, requiere una enorme cantidad de potencia informática, algo que casi solo pueden ofrecer las grandes empresas tecnológicas.

La investigación se centrará en tres asociaciones, cada una de ellas valorada en miles de millones de dólares: la inversión de Microsoft en la start-up californiana OpenAI; la de Amazon en Anthropic, competidor directo de OpenAI, y la de Google en Anthropic.

El objetivo es actualizar la información sobre las estrategias de los grupos, las consecuencias para el lanzamiento de nuevos productos, el impacto en la cuota de mercado y la competencia por los recursos necesarios para desarrollar estos sistemas, que requieren grandes cantidades de chips electrónicos de última generación.

Las empresas afectadas disponen de 45 días a partir de la recepción de la solicitud oficial para responder, precisó la FTC.

“Estados Unidos es el líder mundial en IA porque las principales empresas estadounidenses trabajan juntas. Las asociaciones entre compañías independientes como Microsoft y OpenAI (…) promueven la competencia y aceleran la innovación”, estimó Rima Alaily, vicepresidenta de Microsoft, que asegura que el grupo está “impaciente” por brindar la información a la FTC.

Google reaccionó protestando por lo que considera una relación exclusiva entre Microsoft y OpenAI, en contraste con su enfoque “abierto”. Según el gigante de internet, Microsoft busca construir un ecosistema cerrado con el modelo de inteligencia artificial de OpenAI, mientras que su plataforma en la nube brinda acceso a un centenar de modelos de lenguajes diferentes.

Google ha sido considerado durante mucho tiempo el líder en inteligencia artificial, pero la llegada de OpenAI ha cambiado las cosas.

Microsoft ha avanzado más rápido en la revolución de la IA generativa con una inversión de 13,000 millones de dólares en OpenAI, el creador de ChatGPT.

Anthropic, fundada por exempleados de OpenAI, recibió importantes inversiones tanto de Google como de Amazon el año pasado y es considerado un potencial actor importante en el sector de la IA generativa.

La Comisión Europea inició a principios de este mes su propio estudio preliminar sobre la inversión millonaria de Microsoft en OpenAI para ver si se trata de una fusión encubierta.

Vivimos en los tiempos de los Fake News. De por sí teníamos ya un reto con la información en tiempos electorales y ahora llegamos al 2024 con dos ingredientes que harán el reto de informar e informarnos uno mucho más complicado.

Con las redes sociales sabemos que la información viaja a una gran velocidad. Y dentro de esta información bien se dice que mientras la mentira ya corrió y le dio la vuelta al mundo, la verdad apenas se está amarrando las agujetas. Pero tenemos que pensar ahora en el enorme reto que representa la Inteligencia Artificial (IA).

En estos días, a manera de advertencia sobre lo que se viene, el New York Times publicó imágenes verdaderas a la par de otras generadas con IA. Intentar diferenciar cuál es la auténtica de la ficticia es casi imposible.

La información académica sugiere que la población de mayor edad es la que tiende a compartir más videos falsos y los más jóvenes son los que más fácil se creen lo que ven en redes sociales, en especial en TikTok.

En México no tenemos tanto dato como el que hay en Estados Unidos respecto a estos temas pero, si nos guiamos por las tendencias de aquel país, el problema no son solamente los Fake News y la IA, también la simple amenaza de su existencia genera retos. De acuerdo con una encuesta de Axios, 53 por ciento de los estadounidenses creen que la desinformación generada con IA tendrá un efecto en el resultado de sus elecciones de noviembre próximo. Esto en si es un círculo vicioso que genera desconfianza en los medios de comunicación, tradicionales o no.

Otro reto al que nos enfrentamos desde ya con la IA y la desconfianza que genera es que cuando un político es captado en una situación reprobable, su argumento puede ser escudarse en decir que dicha información es falsa y que fue creada o generada con Inteligencia Artificial. Eso vimos en el caso Martí Batres con una grabación de WhatsApp en la que hablaba de como fortalecer a Clara Brugada frente a Omar García Harfush en sus aspiraciones por la CDMX, a pesar de lo que “la Jefa” Claudia Sheinbaum quisiera. La respuesta inmediata de Batres para defenderse fue decir que esa grabación fue hecha con IA.

A todo esto hay que agregarle el ingrediente en México de un López Obrador y su partido, Morena, que no tienen ni empacho ni la menor preocupación por los daños que una campaña plagada de mentiras y falsedades pueda tener para el país. Por el contrario, lejos de querer robustecer a los medios de comunicación establecidos y a los periodistas con años de carrera, tenemos a un presidente que no se cansa de atacar. Ha ocurrido a lo largo del sexenio pero se ha recrudecido conforme llega el final de su mandato.

La Mañanera de AMLO en la que habló de que los dueños de Imagen y Fórmula no le hacen caso respecto a sacar a Ciro Gómez Leyva, o el enojo de esta semana con Azucena Uresti por no explicar a qué circunstancias se refiere en su mensaje anunciando su salida de Milenio TV son dos claros y burdos ejemplos del enorme desdén por un periodismo serio e informado en México, en especial en tiempos electorales.

La situación pinta para pasar de complicada a complejísima por la tecnología en sí misma y por un mandatario que, cegado de poder, no solo no alcanza a dimensionar el tamaño del reto, además está listo con su cajita de cerillos, aventándolos a la hoguera de las Fake News, los Deep Fakes, y demás herramientas de desinformación.

Columna completa en El Universal

El Servicio de Administración Tributaria (SAT) presentó su Plan Maestro 2024, en el que destaca la aplicación de Inteligencia Artificial (IA) para reforzar los procesos de fiscalización, con el objetivo de mantener la recaudación histórica que recordó, alcanzó los 4 billones de pesos en 2023.

La autoridad indicó que mediante la implementación de modelos de analítica de grafos y machine learning (aprendizaje automático) se va a clasificar a los contribuyentes de riesgo, identificar redes complejas de elusión y evasión fiscal

También busca detectar inconsistencias en Comprobantes Fiscales Digitales por Internet (CFDI) asociadas con el contrabando y empresas fachada.

El SAT precisó que esta tecnología se enfocará en sectores como automotriz, bebidas alcohólicas y cigarros, construcción, farmacéutico, hidrocarburos, logística, plataformas tecnológicas, servicios inmobiliarios, seguros y servicios financieros, y transporte.

Añadió que se va a fortalecer otros mecanismos de fiscalización como los esquemas de fideicomisos y empresas de intermediación crediticia, revisión a plataformas tecnológicas, de comercio y cobros electrónicos, así como de operaciones de comercio exterior y operativos de combate al contrabando y seguimiento al cumplimiento de obligaciones de controles volumétricos.

Y aunque el tono, advertencia, que usó generó cierta preocupación, el SAT detalló que el Plan Maestro 2024 también establece mejoras para una atención más eficiente en los trámites que se realizan de manera presencial.

Añade que se abrirán nuevas oficinas de atención en los cinco estados con mayor demanda, que se sumarían a las 157 que actualmente operan en el país.

“Mediante estas acciones, el SAT no solo mantiene su compromiso de mejorar la recaudación sin la necesidad de crear nuevos impuestos o incrementar los ya existentes, sino que da un paso a la modernización de la gestión tributaria en beneficio de las finanzas públicas”, concluyó la autoridad fiscal.

La Organización Mundial de la Salud (OMS) lanzó una guía con orientaciones éticas para fomentar y garantizar un uso seguro en el ámbito sanitario de los grandes modelos de lenguaje (LMM), un tipo de inteligencia artificial (IA) generativa en rápido desarrollo.

Los LMM, como la controvertida herramienta ChatGPT, avanzan con una presencia en nuestras vidas exponencial a los avances de la inteligencia artificial. Por ello, la OMS reconoce que se hace cada vez más posible su uso en entornos médicos tales como el diagnóstico, la investigación de síntomas y tratamientos, el desarrollo de fármacos o las tareas de administración sanitaria.

Aunque los LMM están empezando a utilizarse para fines sanitarios específicos, la OMS alerta de que algunas de estas utilidades aún no están probadas ni se sabe si ofrecerán los beneficios esperados, lo que hace necesario establecer ciertas normas para su integración y uso con fines médicos y de salud pública.

La guía documenta algunos de los potenciales riesgos para los sistemas sanitarios, como el llamado “sesgo de automatización”, por el que se podrían producir declaraciones falsas, inexactas, sesgadas o incompletas, perjudicando a las personas que utilicen dicha información para tomar decisiones sanitarias.

Los LMM, como otras formas de IA, también son vulnerables a riesgos de ciberseguridad que podrían poner en peligro la información de los pacientes o la fiabilidad de estos algoritmos y la prestación de asistencia médica, recordó la organización sanitaria de la ONU.

Ante esto, el primer paso propuesto por la OMS para una aplicación segura y eficaz de los LMM en el sector sanitario es una participación “vertical e integrada” de todas las partes interesadas, incluyendo gobiernos, empresas tecnológicas, proveedores de atención sanitaria y sociedad civil.

A nivel gubernamental, se recomienda la inversión en infraestructuras públicas accesibles a los desarrolladores de las IA a cambio de adherirse a los principios éticos establecidos.

La OMS también aconseja a los gobiernos la promulgación de leyes que garanticen que los LMM cumplen con los derechos humanos, o la asignación de una agencia reguladora que evalúe si estas tecnologías cumplen con los requisitos antes de su uso.

A pesar de los desafíos actuales que representan los LMM para el sector sanitario, la OMS también reconoce los enormes beneficios que la IA podría proporcionar a los sistemas de salud, incluida la mejora de la salud pública y el logro de la cobertura sanitaria universal.

“¡Gracias por los deseos de cumpleaños! Sin embargo, es importante señalar que, como programa informático, no tengo sentimientos ni conciencia, así que no experimento emociones como los humanos”, fue la respuesta que de ChatGPT, el chatbot viral de OpenAI, al ser preguntado sobre cómo se sentía en su primer cumpleaños.

A pesar de todo, sus respuestas, tan extrañamente humanas, causaron sensación en todo el mundo el año pasado.

Y aunque ha respondido a millones de peticiones de usuarios, su creciente influencia ha suscitado dudas sobre el papel de la inteligencia artificial (IA) en la sociedad.

Su empresa matriz, OpenAI, se vio sacudida este mes por una tumultuosa batalla en el directorio que supuso la repentina destitución y regreso de su presidente ejecutivo, Sam Altman.

ChatGPT se convirtió en la aplicación de software de mayor crecimiento del mundo a los seis meses de su lanzamiento. También alentó el lanzamiento de chatbots rivales de Microsoft, Alphabet y un grupo de empresas emergentes que aprovecharon el revuelo para conseguir miles de millones en financiamiento.

Entre los competidores de ChatGPT se encuentran Bard, Claude de Anthropic, Character.AI y CoPilot de Microsoft, que han experimentado un aumento de usuarios. ChatGPT, sin embargo, acapara la mayor parte del mercado.

Seis meses después del lanzamiento del sitio web de ChatGPT, OpenAI introdujo la aplicación de chatbot en iOS de Apple en mayo y posteriormente en Android en julio. Las descargas de la aplicación en ambas plataformas han aumentado de forma constante, y OpenAI obtiene ingresos de las compras dentro de la aplicación, según la empresa de análisis de datos Apptopia.

El lanzamiento de ChatGPT también provocó inversiones gigantescas de las principales empresas tecnológicas. Microsoft y Alphabet han destinado miles de millones a mejorar sus capacidades de computación en nube y asumir más cargas de trabajo de IA a medida que las empresas adoptan este tipo de herramientas.

Sin embargo, no todo es miel sobre hojuelas. OpenAI y su patrocinador Microsoft han sido objeto de varias demandas interpuestas por grupos de propietarios de derechos de autor, entre ellos los escritores John Grisham, George R.R. Martin y Jonathan Franzen, por el supuesto uso indebido de sus obras para entrenar sistemas de IA. Las empresas han rechazado las acusaciones.

La senadora Alejandra Lagunes, secretaria de la Comisión de Derechos Digitales, señaló que es urgente atender el impacto de la inteligencia artificial en temas de alto riesgo como el medio ambiente, el trabajo y su uso en las campañas políticas.

La legisladora advirtió que un tema de alto riesgo en esta materia es el uso de esta tecnología en las elecciones, pues pudiera existir una distorsión de la realidad “para bien o para mal” de candidatos.

Mencionó que el gobierno empezará a usar dicha herramienta para agilizar sus funciones, por lo que es necesario regular la calidad de los datos que utiliza el Estado, pues es un problema el sesgo que se da en las bases de datos y el desarrollo de quienes realizan la inteligencia artificial.

Además, consideró que también se tiene que regular el uso de esta tecnología en materia de impacto ambiental, ya que “el uno por ciento de las emisiones va a ser generada por los centros de datos que hacen inteligencia artificial, en dos o tres años”.

El senador Gustavo Madero, integrante del Grupo Plural, comentó que con la inteligencia artificial se tienen varios retos en el tema de inclusión, acceso a Internet para todos, derechos humanos, responsabilidad social con el medio ambiente y con las comunidades indígenas.

El legislador agregó que se tienen que atender temas específicos sobre género, inclusión y responsabilidad social, para cerrar las brechas de desigualdad y crear un comité “que permita una plataforma de despegue y de estandarización”.

El presidente Vladimir Putin advirtió este viernes que no se debe permitir que Occidente desarrolle un monopolio en el ámbito de la Inteligencia Artificial (IA), y afirmó que en breve se aprobará una estrategia rusa mucho más ambiciosa para el desarrollo de dicha tecnología.

Y es que China y Estados Unidos lideran el desarrollo de la IA, que muchos investigadores y líderes mundiales creen que transformará el mundo y revolucionará la sociedad de forma similar a la introducción de la computadora en el siglo XX.

Moscú también aspira a convertirse en una potencia de la IA, pero sus esfuerzos se han visto frenados por la guerra de Ucrania, que obligó a muchos especialistas talentosos a abandonar Rusia y desencadenó sanciones occidentales que han obstaculizado las importaciones de alta tecnología del país.

En su intervención en una conferencia sobre IA celebrada en Moscú junto al presidente ejecutivo de Sberbank, German Gref, Putin afirmó que intentar prohibir la IA era imposible a pesar de las consecuencias éticas y sociales, a veces preocupantes, de las nuevas tecnologías.

“No se puede prohibir algo; si lo prohibimos, se desarrollará en otro lugar y nos quedaremos atrás”, dijo Putin aunque afirmó que las cuestiones éticas deben resolverse en referencia a la cultura rusa “tradicional”.

Putin advirtió que algunos sistemas de búsqueda en línea y modelos generativos occidentales ignoran o incluso anulan la lengua y la cultura rusas. Tales algoritmos occidentales, dijo, esencialmente pensaban que Rusia no existía.

Según la mayoría de las clasificaciones, China y Estados Unidos están muy por delante de otros países en lo que respecta a la investigación en IA, aunque también figuran en ellas un segundo grupo de países europeos, así como India, Rusia, Israel, Corea del Sur y Japón.

“En todas las esferas de nuestra vida, la humanidad está comenzando un nuevo capítulo de su existencia”, dijo Putin sobre la IA, añadiendo que Rusia necesitaba redoblar sus esfuerzos en IA, tanto en ambiciones como en ejecución.

“En un futuro muy próximo, como uno de los primeros pasos, se firmará un decreto presidencial y se aprobará una nueva versión de la estrategia nacional para el desarrollo de la inteligencia artificial”, dijo Putin en la conferencia.

Agregó que la nueva estrategia introduciría cambios significativos, entre ellos “ampliar la investigación fundamental y aplicada en el campo de la inteligencia artificial generativa y los grandes modelos lingüísticos”.

WhatsApp está preparando la llegada de los ‘chatbots’ basados en inteligencia artificial (IA), que contarán con un botón de acceso rápido desde la propia pestaña de Chats en la aplicación, para abrirlos rápidamente.

Meta ya anunció en septiembre su intención de integrar chats basados en IA en sus aplicaciones de mensajería, incluida WhatsApp, en la que la versión beta de la ‘app’ para Android ya incluye una novedad al respecto.

En concreto, la versión 2.23.24.26 introduce un atajo a los ‘chatbots’, un botón con el que abrir de forma rápida las conversaciones impulsadas por IA, sin tener que buscarlos en el listado de contactos.

Este nuevo botón se ha ubicado en la pestaña de Chats, en la parte inferior, sobre el icono que permite crear un nuevo chat. Tiene la imagen de un circulo con tonos azules y rosas.

En septiembre pasado, Meta también anuncio un asistente virtual potenciado por el modelo de lenguaje de gran tamaño Llama 2, con el que se podrá interaccionar con lenguaje natural en distintos servicios de la compañía, entre otros WhatsApp.

La compañía también dio a conocer los agentes, unos ‘chatbots’ con personalidad, opinión e intereses propios.

Facebook e Instagram requerirán que todos los anuncios políticos difundidos en sus plataformas divulguen si fueron creados con Inteligencia Artificial (IA), anunció el miércoles su compañía matriz, Meta.

Bajo la nueva política, los avisos sobre el uso de IA aparecerán en la pantalla cuando el usuario haga clic en uno de los anuncios.

La norma entrará en vigor el 1 de enero, y será aplicada a nivel internacional.

Al respecto, Microsoft dio a conocer el martes pasado sus iniciativas para el año electoral, incluida una herramienta que permitirá a las campañas insertar una marca de agua digital en sus anuncios.

Estas marcas de agua están destinadas a ayudar a los votantes a saber quién creó los anuncios y, al mismo tiempo, garantizar que otros no puedan alterar digitalmente la publicidad sin dejar evidencia.

Y es que la aparición y utilización de la Inteligencia Artificial ha hecho más fácil generar sonidos, imágenes y video de apariencia genuina. Expertos han alertado que en manos mal intencionadas, ello podría derivar en videos falsos de un candidato o imágenes preocupantes de fraude electoral o violencia en centros de votación.

A esto habría que añadir el riesgo de que, al combinarse con los algoritmos de las redes sociales, tales contenidos podrían engañar o confundir a votantes a una escala nunca vista.

Meta y otras plataformas tecnológicas han sido acusadas de no hacer lo suficiente para encarar el problema que la IA ha puesto sobre la mesa.

Aunque las autoridades europeas han tomado alunas medidas, en Estados Unidos y otros países que celebrarán elecciones en los próximo meses, se ha hecho poco.

Estados Unidos no es el único país que tendrá elecciones importantes el año entrante. Lo mismo ocurrirá en México, Sudáfrica, Ucrania, Taiwán y Pakistán, entre otros.

Los anuncios políticos generados por la IA ya han aparecido en Estados Unidos. En abril, el Comité Nacional Republicano difundió un espacio generado totalmente con Inteligencia Artificial que supuestamente muestra el futuro del país si Biden es reelegido. Incluía fotos falsas de tiendas cerradas, militares patrullando las calles y olas de migrantes sembrando el pánico. El anuncio sí traía un aviso de que contenía Inteligencia Artificial.

El consejero delegado de Tesla y propietario de la red social X, Elon Musk, llamó este miércoles a crear un “árbitro independiente” que vele por un desarrollo seguro de la Inteligencia Artificial (IA), a la que calificó como una de las “principales amenazas para la humanidad”.

En el marco de la cumbre de seguridad de IA que se celebra en Reino Unido, el magnate estadounidense defendió la necesidad de regular la actividad de las empresas que desarrollan esos sistemas.

“Creo que lo que realmente queremos hacer aquí es establecer un marco de trabajo para la vigilancia. Que haya al menos una tercera parte, un árbitro independiente, que pueda observar lo que están haciendo las compañías punteras en IA y dar la voz de alarma si les suscitan preocupaciones”, afirmó Musk.

El magnate alertó que por primera vez se está en una situación en la que hay algo que va a ser más listo que el más listo de los humanos.

En su opinión, “no está claro si podemos de hecho controlar algo como eso, pero creo que debemos aspirar a guiarlo hacia una dirección que sea beneficiosa para la humanidad”.

Musk afirmó que no ha acudido a la cumbre para defender ninguna política en particular. “Estoy diciendo que intentemos establecer un marco de trabajo para la vigilancia por parte de terceras partes neutrales”, detalló.

Una vez dado ese paso, “se propondrán ciertas políticas o ciertas legislaciones, y eso se hará en colaboración con las compañías de IA”, agregó.

El magnate participa en la cumbre de Bletchley Park junto con 29 gobiernos y organizaciones mundiales, entre ellos Estados Unidos, China y la Unión Europea, y las principales tecnológicas del sector de la IA, como OpenAI, Google DeepMind y Anthropic.

Analistas aseguran que la cumbre ya tuvo un logro inicial cuando funcionarios de 28 países y la Unión Europea firmaron un acuerdo sobre el desarrollo seguro y responsable de la tecnología.

La Inteligencia Artificial de última generación está llevando la tecnología hasta sus límites, pero podría venir con peligros hasta ahora desconocidos. Se sustenta sobre modelos fundacionales que potencian bots conversacionales como el ChatGPT de OpenAI y el Bard de Google y están entrenados con el enorme acervo de información disponible en internet.

Reino Unido alberga este miércoles y jueves una cumbre internacional en la que las principales potencias mundiales y grandes firmas tecnológicas tratarán de definir estrategias comunes para afrontar los riesgos de la inteligencia artificial (IA).

Al encuentro en Bletchley Park, el emblemático enclave inglés donde se decodificaron los mensajes nazis durante la Segunda Guerra Mundial, están invitados 27 países, entre ellos Estados Unidos, China, India y miembros de la Unión Europea como Alemania, Francia y España.

Acudirán también directivos de firmas clave como OpenAI, Google Deepmind, Anthropic, Meta, Microsoft y Nvidia.

Se espera la presencia de la vicepresidenta de Estados Unidos, Kamala Harris, y de la presidenta de la Comisión Europea, Ursula von der Leyen, entre otros líderes políticos, así como la participación de figuras de la industria como el dueño de Tesla y X, Elon Musk.

Durante el encuentro se abordarán los potenciales riesgos futuros de la IA, desde su capacidad para facilitar el terrorismo, los ciberataques y la fabricación de armas biológicas, hasta peligros más extremos e hipotéticos como la posibilidad de que los humanos pierdan el control de los sistemas autónomos.

Estarán asimismo sobre la mesa las implicaciones de las herramientas que ya están a disposición del público en ámbitos como la desinformación y el mercado laboral.

Los organizadores quieren centrar el debate en los riesgos “de frontera”, asociados a los modelos de IA más evolucionados, todavía en desarrollo.

Durante la primera jornada de la cumbre, ministros responsables del sector digital, expertos y miembros de las tecnológicas dialogarán sobre los posibles peligros y vías para contrarrestarlos.

Se espera que los países participantes firmen un comunicado conjunto al término de la cumbre en el que alerten sobre los riesgos que afronta la comunidad internacional y establezca marcos comunes de colaboración.

Sin embargo, hay críticas en torno a la cumbee. El Gobierno británico no ha logrado atraer a la conferencia a líderes como el presidente de Estados Unidos, Joe Biden, ni se espera la presencia de mandatarios europeos como el presidente francés, Emmanuel Macron, y el canciller alemán, Olaf Scholz.

Aún así, subraya que sentar en una misma mesa a representantes de Washington y Pekín, y lograr que ambas potencias rivales acepten alinearse en una declaración conjunta será por sí solo un éxito importante.

La cumbre inicia un día después de que el presidente Joe Biden emitiera una orden ejecutiva destinada a establecer estándares de seguridad para el desarrollo de la inteligencia artificial y abordar los riesgos de la nueva tecnología.

“La orden establece nuevos estándares para la seguridad en el campo de la IA, protege la privacidad de los estadounidenses, promueve la equidad y los derechos civiles, defiende a los consumidores y trabajadores, fomenta la innovación, la competencia y el liderazgo estadounidense a nivel global”, dijo la Casa Blanca en un comunicado.

Añade que los desarrolladores de sistemas de inteligencia artificial más potentes” deben compartir los resultados de sus pruebas de seguridad y todo tipo de información crítica con el Gobierno antes de hacerlos públicos.

La moción, que Biden firmó en la Casa Blanca, también ordena a las agencias que establezcan estándares para esas pruebas y aborden los riesgos químicos, biológicos, radiológicos, nucleares y de ciberseguridad pertinentes.

Bajo este orden, el Instituto Nacional de Estándares y Tecnología establecerá patrones rigurosos para pruebas exhaustivas de ciberseguridad en pos de garantizar la ausencia de riesgo antes de su divulgación al público. También establece acciones a cargo del Departamento de Seguridad Nacional y del Departamento de Comercio.

Spotify anunció este lunes que empezará a poner a prueba un programa que usa Inteligencia Artificial para traducir podcast del inglés a otros idiomas, entre ellos el español, todos con la voz original.

La nueva herramienta recurre a la tecnología de generación de voz de OpenAI para copiar el estilo original del locutor y lograr una experiencia “que suena más personal y natural que el doblaje tradicional”, explicó la compañía en un comunicado.

El proyecto inicial, que traducirá las voces también al francés y el alemán, incluye acuerdos con creadores de contenido como Dax Shepard, Monica Padman, Lex Fridman, Bill Simmons y Steven Bartlett para un número selecto de episodios ya en catálogo y otros futuros lanzamientos.

Spotify mencionó también que planea incluir otros programas, entre ellos “The Rewatchables” de The Ringer y el nuevo pódcast de Trevor Noah.

“Ajustándose a la propia voz del creador, Voice Translation les da a oyentes de todo el mundo el poder para descubrir e inspirarse en nuevos podcasteros de forma más auténtica que antes”, señaló la firma sueca.

Los episodios estarán disponibles en próximos días en todo al mundo para los usuarios “premium” y “free” de la plataforma.

Google anunció este martes que las nuevas herramientas de inteligencia artificial (IA) de sus servicios de videotelefonía Google Meet podrán “asistir” en lugar del usuario a una reunión y tomar notas.

“Con la función ‘asiste por mí’, Duet AI podrá participar en la reunión en tu lugar, hacer que tu mensaje se escuche y, por supuesto, prepararte un resumen”, destacó la empresa en un comunicado.

Entre las nuevas funciones de Google Meet, que se anunciaron hoy en el marco del evento Google Cloud Next, están: los subtítulos con traducción automática en 18 idiomas, tomar notas, hacer resúmenes y crear clips de la reunión.

Asimismo, los usuarios podrán hablar en privado con un chatbot de Google para repasar detalles de la conferencia en curso.

Según Dave Citron, director sénior de producto de Google para Meet, ha habido tres “eras de innovación” para las videoconferencias.

La primera fue la pandemia, cuando mucha gente utilizó por primera vez estos servicios; la segunda fue el regreso a un entorno de trabajo híbrido y la tercera es ahora, con la llegada de la IA.

“Ahora es el punto de inflexión que alcanzamos en los últimos ocho meses con modelos de lenguaje LLM y modelos de difusión”, señaló Citron.

Google anunció hoy que implementará su asistente Duet AI en todas sus aplicaciones Workspace, incluidas Gmail, Drive, Slides y Docs por un precio mensual de 30 dólares por usuario, al menos para las grandes organizaciones.

Aparna Pappu, directora de Workspace, dijo a CNBC que Google no ha fijado los precios para las empresas más pequeñas.

Ese es el mismo precio que Microsoft cobra por su sistema de IA llamado Copilot, con características similares que funcionan en la mayoría de las aplicaciones de Office.

Ayer, OpenAI, compañía que se popularizó el año pasado tras el lanzamiento de su chatbot ChatGPT, lanzó ChatGPT Enterprise, una versión para empresas. No obstante, la compañía no hizo público el precio de suscripción.

Meta ha creado una herramienta de Inteligencia Artificial (IA) generativa llamada AudioCraft, que está diseñada para generar audio y música a partir de entradas de texto y que se entrena con señales de audio sin procesar.

AudioCraft engloba tres modelos de lenguaje: EnCodec, AudioGen y MusicGen, siendo esta última la que presentó el pasado mes de junio como un modelo simple de lenguaje desarrollado bajo un enfoque de una sola etapa de patrones de tokens eficientes entrelazados.

En este caso, Meta ha recordado que MusicGen es un modelo entrenado con música propiedad de la compañía y con licencia específica, que genera música a partir de entradas de usuario basadas en texto.

AudioGen, por su parte, se entrenó con efectos de sonido de uso público y genera audio a partir de entradas de usuario basadas en texto. Finalmente, el decodificador EnCodec, permite “generar música de mayor calidad con menos artificios”. Todos estos modelos están disponibles para fines de investigación.

Meta ha reconocido que, si bien los modelos de lenguaje de IA generativa han generado expectación y demostrado “habilidades excepcionales”, no se ha mostrado el mismo interés por la IA generativa de audio.

Esto podría deberse a “que la música es el tipo de audio más difícil de generar porque se compone de patrones locales y de largo alcance, desde un conjunto de notas hasta una estructura musical global con múltiples instrumentos”, según ha comentado en el anuncio de AudioCraft.

Esta herramienta de IA generativa de música y sonido de código abierto, que también ofrece la capacidad de compresión, permite que los usuarios trabajen sobre la misma base de código bien construir sobre lo que otros han hecho.

De ese modo, estos creadores pueden ampliar estos modelos y adaptarlos a sus casos de uso para la investigación, para lo que Meta ofrece “posibilidades casi ilimitadas”, según este documento.