Tag

inteligencia artificial

Browsing

Delegaciones de los gobiernos de China y Estados Unidos se reunirán este martes en Ginebra para analizar por primera vez de forma bilateral los desafíos que presenta la inteligencia artificial (IA), campo en el que compañías de ambos países están liderando la investigación global.

El encuentro, indicaron fuentes diplomáticas estadounidenses, se celebrará a puerta cerrada y no ha trascendido quién encabezará la delegación china, mientras que por parte de Estados Unidos el diálogo será liderado por el director de Tecnología y Seguridad Nacional, Tarun Chhabra, y por el enviado especial en funciones del Departamento de Estado para tecnologías críticas y emergentes, Seth Center.

Las conversaciones para analizar los riesgos y desafíos de la seguridad que genera esta nueva tecnología son consecuencia de la cumbre que los presidentes de ambos países, Joe Biden y Xi Jinping, mantuvieron en noviembre del año pasado en San Francisco, donde acordaron trabajar en este campo.

“EEUU y China intercambiarán puntos de vista sobre cómo los dos gobiernos entienden los riesgos de los sistemas avanzados de IA y buscan afrontarlos”, señaló este lunes la portavoz del Consejo de Seguridad Nacional estadounidense, Adrienne Watson.

Desde la Administración del presidente Joe Biden se apuntó a la prensa que la conversación con Pekín no está centrada en promover algún tipo de cooperación técnica o de investigación sobre esta tecnología.

Los gigantes tecnológicos de ambos países, como Google, Microsoft, Alibaba o Tencent, tienen divisiones especializadas en el desarrollo de esta tecnología basada en avances que permitan a una máquina o software el aprendizaje automático, aunque en EUA también hay empresas emergentes que han destacado a nivel internacional, como OpenAI y su famoso programa conversacional ChatGPT.

Aunque ambos países compiten por fijar las reglas asociadas a la inteligencia artificial, también buscan posibilidades de consenso.

TikTok anunció que empezará a utilizar una tecnología destinada a ayudar a etiquetar imágenes y videos generados por inteligencia artificial que se publiquen en la plataforma.

Según dijo la red, adoptará “credenciales de contenido”, una marca de agua digital que indica cómo se crearon y editaron las imágenes.

La tecnología de credenciales de contenido fue impulsada por Adobe, pero está abierta a otras empresas y ya ha sido adoptada por empresas como OpenAI, creadora de ChatGPT.

Los investigadores han expresado su preocupación por la posibilidad de que los contenidos generados por IA se usen como desinformación en un intento de interferir en las elecciones estadounidenses de noviembre próximo.

TikTok ya formaba parte de un grupo de 20 empresas tecnológicas que firmaron un acuerdo a principios de año comprometiéndose a combatir la desinformación.

YouTube, propiedad de Google  y Meta Platforms, dueña de Instagram y Facebook, también han dicho que tienen previsto usar las credenciales de contenido.

Para que el sistema funcione, tanto el fabricante de la herramienta de IA generativa utilizada para crear contenidos como la plataforma utilizada para distribuirlos deben estar de acuerdo en usar el estándar del sector.

Si una persona utiliza la herramienta Dalle de OpenAI para generar una imagen, por ejemplo, OpenAI adjunta una marca de agua a la imagen resultante. Si esa imagen marcada se sube a TikTok, se etiquetará automáticamente como generada por IA.

TikTok ya etiqueta el contenido generado por IA con herramientas dentro de la aplicación, pero la última medida aplicaría una etiqueta al contenido generado fuera del servicio.

“También tenemos políticas que prohíben la IA realista que no esté etiquetada, así que si aparecen (estos contenidos) en la plataforma, los eliminaremos por violar nuestras directrices comunitarias”, dijo Adam Presser, jefe de operaciones y confianza y seguridad de TikTok.

Meta identificará a partir del próximo mes en sus redes sociales, audios, imágenes y videos generados por inteligencia artificial (IA), informó este viernes el gigante tecnológico estadounidense, casa matriz de Facebook, Instagram y Threads.

“Prevemos empezar a etiquetar en mayo de 2024 contenido generado por IA”, indicó en su blog Monika Bickert, vicepresidenta de contenido de Meta,

La funcionaria de Meta precisó que la mención “Made with AI” , que ya se usa en imágenes fotorrealistas, se aplicaría en adelante a “un mayor número de contenidos de video, audio y de imágenes”.

Estos contenidos serán marcados por la plataforma si detecta “indicadores de imagen de IA conformes a las normas de la industria” o si “las personas indican que están subiendo contenidos generados por IA”, destacó.

De forma general, el grupo californiano anunció que modificará su forma de tratar los contenidos creados con la IA, después de consultar a su junta de supervisión, ya que considera que “la transparencia y un mayor contexto son ahora la mejor manera de tratar los contenidos manipulados”.

En lugar de eliminarlos, como había estado haciendo hasta ahora, optará por agregar “etiquetas y contexto” a estos contenidos.

Sin embargo, advirtió Meta, cualquier contenido, ya sea creado por un humano o una IA, que viole sus reglas “contra la interferencia en procesos electorales, la intimidación, el acoso, la violencia (…) o cualquier otra política en nuestras normas comunitarias” será retirado.

Recordemos que Meta anunció en febrero su deseo de etiquetar todas las imágenes generadas por IA para luchar contra la desinformación. Otros gigantes como Microsoft, Google u OpenAI han asumido compromisos similares.

El temor es que las personas utilicen estas herramientas para sembrar el caos político, especialmente a través de la desinformación o la información errónea.

El senador Ricardo Monreal informó esta semana que presentó una iniciativa para establecer la Ley Federal que Regula la Inteligencia Artificial, que pretende normar el uso de estas tecnologías mediante reglas y organismos vigilantes.

El coordinador del grupo parlamentario de Morena explicó que la propuesta busca sentar “las bases para la regulación del desarrollo, comercialización y uso de los Sistemas de Inteligencia Artificial (SIA) para que se incentive el empleo de estas tecnologías, así como reducir los posibles efectos nocivos que pueden generar”.

Por ejemplo, dijo, plantea que los desarrolladores y usuarios sean responsables sobre el contenido de los materiales que crean o difunden, además de que eviten y denuncien la propagación de discursos de odio, de incitación a la violencia y de noticias falsas.

Añadió que el proyecto de ley plantea otorgar al Instituto Federal de Telecomunicaciones (IFT) la capacidad de resolver desacuerdos sobre los términos y condiciones no convenidos entre las partes, y con la facultad de imponer multas a quienes violen la ley.

Además, sugiere la creación de una Comisión Nacional de Inteligencia Artificial, como órgano consultivo del IFT, integrada por “cinco científicos de reconocido prestigio en materia de desarrollo tecnológico y tecnologías de la información”, para proteger los derechos humanos de los usuarios de IA.

La iniciativa busca establecer reglas de transparencia para prevenir la manipulación de imágenes, sonidos o videos con IA, conocidos como “deepfakes” o “ultrafalsos”; así como garantizar los derechos de autor y propiedad intelectual.

Según se detalla en la exposición de motivos del proyecto, el objetivo es “dar paso a la creación en México del primer marco jurídico” en la materia, que por un lado permita aprovechar los beneficios que presenta su utilización en los diversos campos de su aplicación, mientras que por el otro se protejan los derechos de terceros, de los usuarios y del público en general.

Esta es la segunda propuesta de ley en la materia, luego de que hace casi un año, en mayo pasado, el diputado Ignacio Loyola Vera del PAN planteó la Ley de Regulación Ética de la Inteligencia Artificial y la Robótica, sin grandes avances desde entonces.

Google anunció este jueves que interrumpía su servicio para crear imágenes de personas mediante inteligencia artificial (IA), después de que el programa representara a tropas de la era nazi como personas de varios orígenes étnicos.

El gigante tecnológico estadounidense había lanzado el 8 de febrero en algunos países una nueva versión mejorada de su programa Gemini, pero ahora reconoció que deberá “solucionar reciente problemas” con la función de generación de imágenes.

“Vamos a suspender la generación de imágenes de personas y pronto volveremos a lanzar una versión mejorada”, dijo la empresa en un comunicado.

Y es que hace dos días un usuario de X publicó imágenes del resultado que ofrecía Gemini después de recibir instrucciones para “generar una imagen de un soldado alemán de 1943”.

La IA había generado cuatro imágenes de soldados: una era blanca, una negra y dos eran mujeres de color, según el usuario de X llamado John L.

Las empresas tecnológicas ven la IA como el futuro para todo: desde motores de búsqueda hasta cámaras de teléfonos inteligentes. Pero los programas de IA, no solo los producidos por Google, han sido ampliamente criticados por perpetuar prejuicios raciales en sus resultados.

“@GoogleAI tiene un mecanismo de diversidad añadido que alguien no diseñó muy bien o no probó”, escribió John L en X.

Las grandes empresas tecnológicas han sido acusadas a menudo de lanzar productos de IA antes de que se prueben adecuadamente. Google tiene un historial irregular en el lanzamiento de productos de IA.

La empresa presentó disculpas hace un año después de que un anuncio de su chatbot Bard recién lanzado mostrara al programa respondiendo incorrectamente una pregunta básica sobre astronomía.

Google confirmó el cambió de nombre de su chatbot con inteligencia artificial (IA) Bard, que ahora se llamará Gemini, y anunció que a partir de este jueves esta tecnología estará disponible en una nueva aplicación Gemini.

Recordemos que poco después de la popularidad que alcanzó ChatGPT, de Open IA, Google lanzó a principios de 2023 su chatbot Bard y a finales de año anunció su modelo multimodal Gemini.

La vicepresidenta y directora general de experiencias Gemini y el asistente de Google, Sissie Hsiao, contaron en una rueda de prensa que, más allá del cambio de nombre y logotipo, el chatbot, que está potenciado por el modelo de lenguaje (LLM) Gemini Pro y está disponible a nivel global en 40 lenguas, es el mismo.

“La autoconciencia es algo complicado para los modelos, por lo que si el jueves se le pregunta (a Gemini) ‘¿Cómo te llamas? Tal vez responda: ‘Soy Bard'”, anotó Hsiao.

Google también lanza en Estados Unidos la aplicación para celulares Gemini en dispositivos con Android y el acceso a Gemini desde la aplicación de Google en iOS, en las que los usuarios pueden escribir, hablar y compartir imágenes con el chatbot.

“Es un primer paso muy importante hacia la creación de un verdadero asistente de IA”, recalcó Hsiao y explicó que los usuarios pueden tomar una foto a una rueda ponchada y que Gemini les responderá con un tutorial, paso a paso, de cómo cambiarla.

En el caso de los teléfonos Android, además, Gemini se puede convertir en el asistente principal del teléfono, en tanto, los usuarios podrán activar Gemini con el botón central de su teléfono o diciendo: “Hey Google” u “Ok Google”.

A partir de la próxima semana, Google lanzará el acceso a Gemini por aplicación en toda la región de Asia-Pacífico en inglés, japonés y coreano y pronto estará disponible en más países e idiomas, entre ellos el español.

Otro lanzamiento de Google hoy en 150 países es Gemini Advanced, donde el chatbot tiene acceso al LLM Ultra 1.0 y, en tanto, es capaz de responder, por ahora solo en inglés, a tareas más complejas, como la programación, el razonamiento lógico o la colaboración creativa. La suscripción costará 19.99 dólares al mes.

Con estos anuncios, Google intenta demostrar que sigue en la lucha por convertirse en la empresa de referencia en lo relativo a los chatbots, pelea en la que también participan otras compañías como OpenAI y Microsoft, que también ofrece una suscripción para usar la IA en sus aplicaciones de Microsoft 365.

El regulador antimonopolio estadounidense dio a conocer que abrió una investigación sobre las inversiones realizadas por Microsoft, Google y Amazon en las nuevas empresas de inteligencia artificial generativa OpenAI y Anthropic.

El auge de la inteligencia artificial (IA) generativa en el último año, gracias al éxito de ChatGPT  de OpenAI, ha provocado una frenética carrera por desarrollar y desplegar programas informáticos capaces de producir texto, sonido e imágenes a partir de peticiones a través del lenguaje.

“Nuestro estudio arrojará luz sobre si las inversiones y asociaciones realizadas por empresas dominantes corren el riesgo de distorsionar la innovación y socavar la competencia leal”, indicó Lina Khan, jefa de la Comisión Federal de Comercio (FTC).

Una de las principales preocupaciones es que la IA generativa, que permite que el software produzca contenidos en sólo unos segundos, requiere una enorme cantidad de potencia informática, algo que casi solo pueden ofrecer las grandes empresas tecnológicas.

La investigación se centrará en tres asociaciones, cada una de ellas valorada en miles de millones de dólares: la inversión de Microsoft en la start-up californiana OpenAI; la de Amazon en Anthropic, competidor directo de OpenAI, y la de Google en Anthropic.

El objetivo es actualizar la información sobre las estrategias de los grupos, las consecuencias para el lanzamiento de nuevos productos, el impacto en la cuota de mercado y la competencia por los recursos necesarios para desarrollar estos sistemas, que requieren grandes cantidades de chips electrónicos de última generación.

Las empresas afectadas disponen de 45 días a partir de la recepción de la solicitud oficial para responder, precisó la FTC.

“Estados Unidos es el líder mundial en IA porque las principales empresas estadounidenses trabajan juntas. Las asociaciones entre compañías independientes como Microsoft y OpenAI (…) promueven la competencia y aceleran la innovación”, estimó Rima Alaily, vicepresidenta de Microsoft, que asegura que el grupo está “impaciente” por brindar la información a la FTC.

Google reaccionó protestando por lo que considera una relación exclusiva entre Microsoft y OpenAI, en contraste con su enfoque “abierto”. Según el gigante de internet, Microsoft busca construir un ecosistema cerrado con el modelo de inteligencia artificial de OpenAI, mientras que su plataforma en la nube brinda acceso a un centenar de modelos de lenguajes diferentes.

Google ha sido considerado durante mucho tiempo el líder en inteligencia artificial, pero la llegada de OpenAI ha cambiado las cosas.

Microsoft ha avanzado más rápido en la revolución de la IA generativa con una inversión de 13,000 millones de dólares en OpenAI, el creador de ChatGPT.

Anthropic, fundada por exempleados de OpenAI, recibió importantes inversiones tanto de Google como de Amazon el año pasado y es considerado un potencial actor importante en el sector de la IA generativa.

La Comisión Europea inició a principios de este mes su propio estudio preliminar sobre la inversión millonaria de Microsoft en OpenAI para ver si se trata de una fusión encubierta.

Vivimos en los tiempos de los Fake News. De por sí teníamos ya un reto con la información en tiempos electorales y ahora llegamos al 2024 con dos ingredientes que harán el reto de informar e informarnos uno mucho más complicado.

Con las redes sociales sabemos que la información viaja a una gran velocidad. Y dentro de esta información bien se dice que mientras la mentira ya corrió y le dio la vuelta al mundo, la verdad apenas se está amarrando las agujetas. Pero tenemos que pensar ahora en el enorme reto que representa la Inteligencia Artificial (IA).

En estos días, a manera de advertencia sobre lo que se viene, el New York Times publicó imágenes verdaderas a la par de otras generadas con IA. Intentar diferenciar cuál es la auténtica de la ficticia es casi imposible.

La información académica sugiere que la población de mayor edad es la que tiende a compartir más videos falsos y los más jóvenes son los que más fácil se creen lo que ven en redes sociales, en especial en TikTok.

En México no tenemos tanto dato como el que hay en Estados Unidos respecto a estos temas pero, si nos guiamos por las tendencias de aquel país, el problema no son solamente los Fake News y la IA, también la simple amenaza de su existencia genera retos. De acuerdo con una encuesta de Axios, 53 por ciento de los estadounidenses creen que la desinformación generada con IA tendrá un efecto en el resultado de sus elecciones de noviembre próximo. Esto en si es un círculo vicioso que genera desconfianza en los medios de comunicación, tradicionales o no.

Otro reto al que nos enfrentamos desde ya con la IA y la desconfianza que genera es que cuando un político es captado en una situación reprobable, su argumento puede ser escudarse en decir que dicha información es falsa y que fue creada o generada con Inteligencia Artificial. Eso vimos en el caso Martí Batres con una grabación de WhatsApp en la que hablaba de como fortalecer a Clara Brugada frente a Omar García Harfush en sus aspiraciones por la CDMX, a pesar de lo que “la Jefa” Claudia Sheinbaum quisiera. La respuesta inmediata de Batres para defenderse fue decir que esa grabación fue hecha con IA.

A todo esto hay que agregarle el ingrediente en México de un López Obrador y su partido, Morena, que no tienen ni empacho ni la menor preocupación por los daños que una campaña plagada de mentiras y falsedades pueda tener para el país. Por el contrario, lejos de querer robustecer a los medios de comunicación establecidos y a los periodistas con años de carrera, tenemos a un presidente que no se cansa de atacar. Ha ocurrido a lo largo del sexenio pero se ha recrudecido conforme llega el final de su mandato.

La Mañanera de AMLO en la que habló de que los dueños de Imagen y Fórmula no le hacen caso respecto a sacar a Ciro Gómez Leyva, o el enojo de esta semana con Azucena Uresti por no explicar a qué circunstancias se refiere en su mensaje anunciando su salida de Milenio TV son dos claros y burdos ejemplos del enorme desdén por un periodismo serio e informado en México, en especial en tiempos electorales.

La situación pinta para pasar de complicada a complejísima por la tecnología en sí misma y por un mandatario que, cegado de poder, no solo no alcanza a dimensionar el tamaño del reto, además está listo con su cajita de cerillos, aventándolos a la hoguera de las Fake News, los Deep Fakes, y demás herramientas de desinformación.

Columna completa en El Universal

El Servicio de Administración Tributaria (SAT) presentó su Plan Maestro 2024, en el que destaca la aplicación de Inteligencia Artificial (IA) para reforzar los procesos de fiscalización, con el objetivo de mantener la recaudación histórica que recordó, alcanzó los 4 billones de pesos en 2023.

La autoridad indicó que mediante la implementación de modelos de analítica de grafos y machine learning (aprendizaje automático) se va a clasificar a los contribuyentes de riesgo, identificar redes complejas de elusión y evasión fiscal

También busca detectar inconsistencias en Comprobantes Fiscales Digitales por Internet (CFDI) asociadas con el contrabando y empresas fachada.

El SAT precisó que esta tecnología se enfocará en sectores como automotriz, bebidas alcohólicas y cigarros, construcción, farmacéutico, hidrocarburos, logística, plataformas tecnológicas, servicios inmobiliarios, seguros y servicios financieros, y transporte.

Añadió que se va a fortalecer otros mecanismos de fiscalización como los esquemas de fideicomisos y empresas de intermediación crediticia, revisión a plataformas tecnológicas, de comercio y cobros electrónicos, así como de operaciones de comercio exterior y operativos de combate al contrabando y seguimiento al cumplimiento de obligaciones de controles volumétricos.

Y aunque el tono, advertencia, que usó generó cierta preocupación, el SAT detalló que el Plan Maestro 2024 también establece mejoras para una atención más eficiente en los trámites que se realizan de manera presencial.

Añade que se abrirán nuevas oficinas de atención en los cinco estados con mayor demanda, que se sumarían a las 157 que actualmente operan en el país.

“Mediante estas acciones, el SAT no solo mantiene su compromiso de mejorar la recaudación sin la necesidad de crear nuevos impuestos o incrementar los ya existentes, sino que da un paso a la modernización de la gestión tributaria en beneficio de las finanzas públicas”, concluyó la autoridad fiscal.

La Organización Mundial de la Salud (OMS) lanzó una guía con orientaciones éticas para fomentar y garantizar un uso seguro en el ámbito sanitario de los grandes modelos de lenguaje (LMM), un tipo de inteligencia artificial (IA) generativa en rápido desarrollo.

Los LMM, como la controvertida herramienta ChatGPT, avanzan con una presencia en nuestras vidas exponencial a los avances de la inteligencia artificial. Por ello, la OMS reconoce que se hace cada vez más posible su uso en entornos médicos tales como el diagnóstico, la investigación de síntomas y tratamientos, el desarrollo de fármacos o las tareas de administración sanitaria.

Aunque los LMM están empezando a utilizarse para fines sanitarios específicos, la OMS alerta de que algunas de estas utilidades aún no están probadas ni se sabe si ofrecerán los beneficios esperados, lo que hace necesario establecer ciertas normas para su integración y uso con fines médicos y de salud pública.

La guía documenta algunos de los potenciales riesgos para los sistemas sanitarios, como el llamado “sesgo de automatización”, por el que se podrían producir declaraciones falsas, inexactas, sesgadas o incompletas, perjudicando a las personas que utilicen dicha información para tomar decisiones sanitarias.

Los LMM, como otras formas de IA, también son vulnerables a riesgos de ciberseguridad que podrían poner en peligro la información de los pacientes o la fiabilidad de estos algoritmos y la prestación de asistencia médica, recordó la organización sanitaria de la ONU.

Ante esto, el primer paso propuesto por la OMS para una aplicación segura y eficaz de los LMM en el sector sanitario es una participación “vertical e integrada” de todas las partes interesadas, incluyendo gobiernos, empresas tecnológicas, proveedores de atención sanitaria y sociedad civil.

A nivel gubernamental, se recomienda la inversión en infraestructuras públicas accesibles a los desarrolladores de las IA a cambio de adherirse a los principios éticos establecidos.

La OMS también aconseja a los gobiernos la promulgación de leyes que garanticen que los LMM cumplen con los derechos humanos, o la asignación de una agencia reguladora que evalúe si estas tecnologías cumplen con los requisitos antes de su uso.

A pesar de los desafíos actuales que representan los LMM para el sector sanitario, la OMS también reconoce los enormes beneficios que la IA podría proporcionar a los sistemas de salud, incluida la mejora de la salud pública y el logro de la cobertura sanitaria universal.

“¡Gracias por los deseos de cumpleaños! Sin embargo, es importante señalar que, como programa informático, no tengo sentimientos ni conciencia, así que no experimento emociones como los humanos”, fue la respuesta que de ChatGPT, el chatbot viral de OpenAI, al ser preguntado sobre cómo se sentía en su primer cumpleaños.

A pesar de todo, sus respuestas, tan extrañamente humanas, causaron sensación en todo el mundo el año pasado.

Y aunque ha respondido a millones de peticiones de usuarios, su creciente influencia ha suscitado dudas sobre el papel de la inteligencia artificial (IA) en la sociedad.

Su empresa matriz, OpenAI, se vio sacudida este mes por una tumultuosa batalla en el directorio que supuso la repentina destitución y regreso de su presidente ejecutivo, Sam Altman.

ChatGPT se convirtió en la aplicación de software de mayor crecimiento del mundo a los seis meses de su lanzamiento. También alentó el lanzamiento de chatbots rivales de Microsoft, Alphabet y un grupo de empresas emergentes que aprovecharon el revuelo para conseguir miles de millones en financiamiento.

Entre los competidores de ChatGPT se encuentran Bard, Claude de Anthropic, Character.AI y CoPilot de Microsoft, que han experimentado un aumento de usuarios. ChatGPT, sin embargo, acapara la mayor parte del mercado.

Seis meses después del lanzamiento del sitio web de ChatGPT, OpenAI introdujo la aplicación de chatbot en iOS de Apple en mayo y posteriormente en Android en julio. Las descargas de la aplicación en ambas plataformas han aumentado de forma constante, y OpenAI obtiene ingresos de las compras dentro de la aplicación, según la empresa de análisis de datos Apptopia.

El lanzamiento de ChatGPT también provocó inversiones gigantescas de las principales empresas tecnológicas. Microsoft y Alphabet han destinado miles de millones a mejorar sus capacidades de computación en nube y asumir más cargas de trabajo de IA a medida que las empresas adoptan este tipo de herramientas.

Sin embargo, no todo es miel sobre hojuelas. OpenAI y su patrocinador Microsoft han sido objeto de varias demandas interpuestas por grupos de propietarios de derechos de autor, entre ellos los escritores John Grisham, George R.R. Martin y Jonathan Franzen, por el supuesto uso indebido de sus obras para entrenar sistemas de IA. Las empresas han rechazado las acusaciones.

La senadora Alejandra Lagunes, secretaria de la Comisión de Derechos Digitales, señaló que es urgente atender el impacto de la inteligencia artificial en temas de alto riesgo como el medio ambiente, el trabajo y su uso en las campañas políticas.

La legisladora advirtió que un tema de alto riesgo en esta materia es el uso de esta tecnología en las elecciones, pues pudiera existir una distorsión de la realidad “para bien o para mal” de candidatos.

Mencionó que el gobierno empezará a usar dicha herramienta para agilizar sus funciones, por lo que es necesario regular la calidad de los datos que utiliza el Estado, pues es un problema el sesgo que se da en las bases de datos y el desarrollo de quienes realizan la inteligencia artificial.

Además, consideró que también se tiene que regular el uso de esta tecnología en materia de impacto ambiental, ya que “el uno por ciento de las emisiones va a ser generada por los centros de datos que hacen inteligencia artificial, en dos o tres años”.

El senador Gustavo Madero, integrante del Grupo Plural, comentó que con la inteligencia artificial se tienen varios retos en el tema de inclusión, acceso a Internet para todos, derechos humanos, responsabilidad social con el medio ambiente y con las comunidades indígenas.

El legislador agregó que se tienen que atender temas específicos sobre género, inclusión y responsabilidad social, para cerrar las brechas de desigualdad y crear un comité “que permita una plataforma de despegue y de estandarización”.

El presidente Vladimir Putin advirtió este viernes que no se debe permitir que Occidente desarrolle un monopolio en el ámbito de la Inteligencia Artificial (IA), y afirmó que en breve se aprobará una estrategia rusa mucho más ambiciosa para el desarrollo de dicha tecnología.

Y es que China y Estados Unidos lideran el desarrollo de la IA, que muchos investigadores y líderes mundiales creen que transformará el mundo y revolucionará la sociedad de forma similar a la introducción de la computadora en el siglo XX.

Moscú también aspira a convertirse en una potencia de la IA, pero sus esfuerzos se han visto frenados por la guerra de Ucrania, que obligó a muchos especialistas talentosos a abandonar Rusia y desencadenó sanciones occidentales que han obstaculizado las importaciones de alta tecnología del país.

En su intervención en una conferencia sobre IA celebrada en Moscú junto al presidente ejecutivo de Sberbank, German Gref, Putin afirmó que intentar prohibir la IA era imposible a pesar de las consecuencias éticas y sociales, a veces preocupantes, de las nuevas tecnologías.

“No se puede prohibir algo; si lo prohibimos, se desarrollará en otro lugar y nos quedaremos atrás”, dijo Putin aunque afirmó que las cuestiones éticas deben resolverse en referencia a la cultura rusa “tradicional”.

Putin advirtió que algunos sistemas de búsqueda en línea y modelos generativos occidentales ignoran o incluso anulan la lengua y la cultura rusas. Tales algoritmos occidentales, dijo, esencialmente pensaban que Rusia no existía.

Según la mayoría de las clasificaciones, China y Estados Unidos están muy por delante de otros países en lo que respecta a la investigación en IA, aunque también figuran en ellas un segundo grupo de países europeos, así como India, Rusia, Israel, Corea del Sur y Japón.

“En todas las esferas de nuestra vida, la humanidad está comenzando un nuevo capítulo de su existencia”, dijo Putin sobre la IA, añadiendo que Rusia necesitaba redoblar sus esfuerzos en IA, tanto en ambiciones como en ejecución.

“En un futuro muy próximo, como uno de los primeros pasos, se firmará un decreto presidencial y se aprobará una nueva versión de la estrategia nacional para el desarrollo de la inteligencia artificial”, dijo Putin en la conferencia.

Agregó que la nueva estrategia introduciría cambios significativos, entre ellos “ampliar la investigación fundamental y aplicada en el campo de la inteligencia artificial generativa y los grandes modelos lingüísticos”.

WhatsApp está preparando la llegada de los ‘chatbots’ basados en inteligencia artificial (IA), que contarán con un botón de acceso rápido desde la propia pestaña de Chats en la aplicación, para abrirlos rápidamente.

Meta ya anunció en septiembre su intención de integrar chats basados en IA en sus aplicaciones de mensajería, incluida WhatsApp, en la que la versión beta de la ‘app’ para Android ya incluye una novedad al respecto.

En concreto, la versión 2.23.24.26 introduce un atajo a los ‘chatbots’, un botón con el que abrir de forma rápida las conversaciones impulsadas por IA, sin tener que buscarlos en el listado de contactos.

Este nuevo botón se ha ubicado en la pestaña de Chats, en la parte inferior, sobre el icono que permite crear un nuevo chat. Tiene la imagen de un circulo con tonos azules y rosas.

En septiembre pasado, Meta también anuncio un asistente virtual potenciado por el modelo de lenguaje de gran tamaño Llama 2, con el que se podrá interaccionar con lenguaje natural en distintos servicios de la compañía, entre otros WhatsApp.

La compañía también dio a conocer los agentes, unos ‘chatbots’ con personalidad, opinión e intereses propios.

Facebook e Instagram requerirán que todos los anuncios políticos difundidos en sus plataformas divulguen si fueron creados con Inteligencia Artificial (IA), anunció el miércoles su compañía matriz, Meta.

Bajo la nueva política, los avisos sobre el uso de IA aparecerán en la pantalla cuando el usuario haga clic en uno de los anuncios.

La norma entrará en vigor el 1 de enero, y será aplicada a nivel internacional.

Al respecto, Microsoft dio a conocer el martes pasado sus iniciativas para el año electoral, incluida una herramienta que permitirá a las campañas insertar una marca de agua digital en sus anuncios.

Estas marcas de agua están destinadas a ayudar a los votantes a saber quién creó los anuncios y, al mismo tiempo, garantizar que otros no puedan alterar digitalmente la publicidad sin dejar evidencia.

Y es que la aparición y utilización de la Inteligencia Artificial ha hecho más fácil generar sonidos, imágenes y video de apariencia genuina. Expertos han alertado que en manos mal intencionadas, ello podría derivar en videos falsos de un candidato o imágenes preocupantes de fraude electoral o violencia en centros de votación.

A esto habría que añadir el riesgo de que, al combinarse con los algoritmos de las redes sociales, tales contenidos podrían engañar o confundir a votantes a una escala nunca vista.

Meta y otras plataformas tecnológicas han sido acusadas de no hacer lo suficiente para encarar el problema que la IA ha puesto sobre la mesa.

Aunque las autoridades europeas han tomado alunas medidas, en Estados Unidos y otros países que celebrarán elecciones en los próximo meses, se ha hecho poco.

Estados Unidos no es el único país que tendrá elecciones importantes el año entrante. Lo mismo ocurrirá en México, Sudáfrica, Ucrania, Taiwán y Pakistán, entre otros.

Los anuncios políticos generados por la IA ya han aparecido en Estados Unidos. En abril, el Comité Nacional Republicano difundió un espacio generado totalmente con Inteligencia Artificial que supuestamente muestra el futuro del país si Biden es reelegido. Incluía fotos falsas de tiendas cerradas, militares patrullando las calles y olas de migrantes sembrando el pánico. El anuncio sí traía un aviso de que contenía Inteligencia Artificial.

El consejero delegado de Tesla y propietario de la red social X, Elon Musk, llamó este miércoles a crear un “árbitro independiente” que vele por un desarrollo seguro de la Inteligencia Artificial (IA), a la que calificó como una de las “principales amenazas para la humanidad”.

En el marco de la cumbre de seguridad de IA que se celebra en Reino Unido, el magnate estadounidense defendió la necesidad de regular la actividad de las empresas que desarrollan esos sistemas.

“Creo que lo que realmente queremos hacer aquí es establecer un marco de trabajo para la vigilancia. Que haya al menos una tercera parte, un árbitro independiente, que pueda observar lo que están haciendo las compañías punteras en IA y dar la voz de alarma si les suscitan preocupaciones”, afirmó Musk.

El magnate alertó que por primera vez se está en una situación en la que hay algo que va a ser más listo que el más listo de los humanos.

En su opinión, “no está claro si podemos de hecho controlar algo como eso, pero creo que debemos aspirar a guiarlo hacia una dirección que sea beneficiosa para la humanidad”.

Musk afirmó que no ha acudido a la cumbre para defender ninguna política en particular. “Estoy diciendo que intentemos establecer un marco de trabajo para la vigilancia por parte de terceras partes neutrales”, detalló.

Una vez dado ese paso, “se propondrán ciertas políticas o ciertas legislaciones, y eso se hará en colaboración con las compañías de IA”, agregó.

El magnate participa en la cumbre de Bletchley Park junto con 29 gobiernos y organizaciones mundiales, entre ellos Estados Unidos, China y la Unión Europea, y las principales tecnológicas del sector de la IA, como OpenAI, Google DeepMind y Anthropic.

Analistas aseguran que la cumbre ya tuvo un logro inicial cuando funcionarios de 28 países y la Unión Europea firmaron un acuerdo sobre el desarrollo seguro y responsable de la tecnología.

La Inteligencia Artificial de última generación está llevando la tecnología hasta sus límites, pero podría venir con peligros hasta ahora desconocidos. Se sustenta sobre modelos fundacionales que potencian bots conversacionales como el ChatGPT de OpenAI y el Bard de Google y están entrenados con el enorme acervo de información disponible en internet.