Tag

inteligencia artificial

Browsing

OpenAI ha comenzado a trabajar en su próximo modelo de Inteligencia Artificial (IA), con el que anticipa llegar al “siguiente nivel de capacidades” para avanzar hacia la Inteligencia Artificial General (AGI).

Sin embargo, lo que ha llamado la atención es que ante este adelanto, ha anunciado la creación de un nuevo Comité de Seguridad, con el que hará recomendaciones sobre decisiones críticas de seguridad para proyectos y operaciones de la compañía.

La tecnológica lanzó este mes su último modelo actualizado de IA: GPT-4o, que es más rápido y capaz que las versiones anteriores, ya que ofrece respuestas en un promedio de 320 milisegundos (similar al tiempo de respuesta humana), además de aceptar cualquier combinación de texto, audio e imagen.

Sin embargo, la compañía liderada por Sam Altman continúa avanzando en el desarrollo de sus modelos de IA y, aunque su intención es seguir lanzando modelos “líderes en la industria”, tanto a nivel de capacidades como de seguridad, también han señalado que es necesario fomentar “un debate sólido en este momento importante” respecto a los últimos avances de la compañía.

OpenAI señaló que el nuevo Comité de Seguridad se encargará de evaluar y desarrollar los procesos y salvaguardas de la compañía para, tras ello, hacer recomendaciones a la Junta sobre “decisiones críticas de seguridad” relacionadas con los proyectos y operaciones de la compañía.

El Comité de Seguridad estará dirigido por los expertos en tecnología de IA, Bret Taylor, Adam D’Angelo y Nicole Seligman, además de por el CEO de la tecnológica, Sam Altman.

En concreto, durante los próximos 90 días, el Comité de Seguridad evaluará y desarrollará “aún más” los procesos y salvaguardas que dispone actualmente OpenAI. Tras este periodo, debatirá sus recomendaciones con la Junta de OpenAI y, después, compartirá públicamente una actualización sobre las recomendaciones adoptadas.

Todo ello bajo el objetivo de OpenAI de hacer más consistentes las medidas de seguridad para las nuevas tecnologías de la compañía.

De esta forma, la compañía ha subrayado que el Comité también contará con expertos técnicos y de seguridad para respaldar este trabajo, incluidos los exfuncionarios de ciberseguridad, Rob Joyce y John Carling.

El buscador de Google lucha por no convertirse en un dinosaurio y usa las mismas herramientas con que se ve amenazado, los chatbots con inteligencia artificial (IA) y los formatos cortos de las redes sociales, para intentar así que su motor de búsqueda no pierda vigencia y público.

Pese a que en muchos idiomas buscar información en Google ya se ha convertido en un verbo: ‘googlear’, plataformas mucho más jóvenes como ChatGPT o TikTok le hacen cada vez más sombra al gigante tecnológico.

Dos de cada cinco estadounidenses utilizan TikTok como motor de búsqueda y casi una de cada diez personas de la generación Z (nacidos entre 1997 y 2006) tienen más probabilidades de confiar en TikTok que en Google, según una encuesta de Adobe.

Google reconoció que ‘ha visto las orejas al lobo’. “Cerca del 40 % de los jóvenes, cuando buscan un lugar para almorzar no abren Google Maps ni van al buscador de Google. Van a TikTok o Instagram”, dijo Prabhakar Raghavan, vicepresidente sénior de Google.

La generación Z recurre a Google un 25% menos que la Generación X (nacidos entre 1965 y 1980) cuando realiza búsquedas, según una encuesta de Forbes y OnePoll.

Las redes sociales tienen un algoritmo a medida del usuario, ofrecen información contada en primera persona y en la sección de comentarios los usuarios pueden debatir la información.

Desde 2019 Google ofrece videos de TikTok como resultados de búsqueda y en 2020 lanzó su versión de TikTok, YouTube Shorts, plataforma que permite a los usuarios compartir videos verticales de menos de un minuto de duración, y comenzó a incluir estos en sus resultados de búsqueda.

La inteligencia artificial (IA) generativa representa para Google la excusa perfecta para modernizarse, pero a la par la posibilidad de que los usuarios se salten el paso de poner sus dudas en un buscador y se las hagan directamente a un chatbot.

Este mes, tanto Google como OpenAI, empresa detrás de ChatGPT, presentaron un asistente de IA con cualidades humanas que le permiten ver, oír, razonar y ayudar al usuario; les siguió Amazon con su nueva versión de Alexa.

Google anunció este mes que “pronto” integrará la posibilidad de preguntar en su buscador con videos para obtener ayuda de la IA, gracias a un nuevo modelo Gemini (la IA del gigante tecnológico) personalizado para la búsqueda de Google.

En sus más de dos décadas, Google ha conseguido hacerse con la confianza de los usuarios, así como convertirse en sinónimo de respuesta. No obstante, uno de los mayores peligros de la IA son las alucinaciones, respuestas bien estructuradas pero completamente incorrectas.

El cofundador de Google Sergey Brin dijo, en una improvisada rueda de prensa en la conferencia anual de desarrolladores Google I/O, que las alucinaciones son un “gran problema”, pero que están “menguando”.

Delegaciones de los gobiernos de China y Estados Unidos se reunirán este martes en Ginebra para analizar por primera vez de forma bilateral los desafíos que presenta la inteligencia artificial (IA), campo en el que compañías de ambos países están liderando la investigación global.

El encuentro, indicaron fuentes diplomáticas estadounidenses, se celebrará a puerta cerrada y no ha trascendido quién encabezará la delegación china, mientras que por parte de Estados Unidos el diálogo será liderado por el director de Tecnología y Seguridad Nacional, Tarun Chhabra, y por el enviado especial en funciones del Departamento de Estado para tecnologías críticas y emergentes, Seth Center.

Las conversaciones para analizar los riesgos y desafíos de la seguridad que genera esta nueva tecnología son consecuencia de la cumbre que los presidentes de ambos países, Joe Biden y Xi Jinping, mantuvieron en noviembre del año pasado en San Francisco, donde acordaron trabajar en este campo.

“EEUU y China intercambiarán puntos de vista sobre cómo los dos gobiernos entienden los riesgos de los sistemas avanzados de IA y buscan afrontarlos”, señaló este lunes la portavoz del Consejo de Seguridad Nacional estadounidense, Adrienne Watson.

Desde la Administración del presidente Joe Biden se apuntó a la prensa que la conversación con Pekín no está centrada en promover algún tipo de cooperación técnica o de investigación sobre esta tecnología.

Los gigantes tecnológicos de ambos países, como Google, Microsoft, Alibaba o Tencent, tienen divisiones especializadas en el desarrollo de esta tecnología basada en avances que permitan a una máquina o software el aprendizaje automático, aunque en EUA también hay empresas emergentes que han destacado a nivel internacional, como OpenAI y su famoso programa conversacional ChatGPT.

Aunque ambos países compiten por fijar las reglas asociadas a la inteligencia artificial, también buscan posibilidades de consenso.

TikTok anunció que empezará a utilizar una tecnología destinada a ayudar a etiquetar imágenes y videos generados por inteligencia artificial que se publiquen en la plataforma.

Según dijo la red, adoptará “credenciales de contenido”, una marca de agua digital que indica cómo se crearon y editaron las imágenes.

La tecnología de credenciales de contenido fue impulsada por Adobe, pero está abierta a otras empresas y ya ha sido adoptada por empresas como OpenAI, creadora de ChatGPT.

Los investigadores han expresado su preocupación por la posibilidad de que los contenidos generados por IA se usen como desinformación en un intento de interferir en las elecciones estadounidenses de noviembre próximo.

TikTok ya formaba parte de un grupo de 20 empresas tecnológicas que firmaron un acuerdo a principios de año comprometiéndose a combatir la desinformación.

YouTube, propiedad de Google  y Meta Platforms, dueña de Instagram y Facebook, también han dicho que tienen previsto usar las credenciales de contenido.

Para que el sistema funcione, tanto el fabricante de la herramienta de IA generativa utilizada para crear contenidos como la plataforma utilizada para distribuirlos deben estar de acuerdo en usar el estándar del sector.

Si una persona utiliza la herramienta Dalle de OpenAI para generar una imagen, por ejemplo, OpenAI adjunta una marca de agua a la imagen resultante. Si esa imagen marcada se sube a TikTok, se etiquetará automáticamente como generada por IA.

TikTok ya etiqueta el contenido generado por IA con herramientas dentro de la aplicación, pero la última medida aplicaría una etiqueta al contenido generado fuera del servicio.

“También tenemos políticas que prohíben la IA realista que no esté etiquetada, así que si aparecen (estos contenidos) en la plataforma, los eliminaremos por violar nuestras directrices comunitarias”, dijo Adam Presser, jefe de operaciones y confianza y seguridad de TikTok.

Meta identificará a partir del próximo mes en sus redes sociales, audios, imágenes y videos generados por inteligencia artificial (IA), informó este viernes el gigante tecnológico estadounidense, casa matriz de Facebook, Instagram y Threads.

“Prevemos empezar a etiquetar en mayo de 2024 contenido generado por IA”, indicó en su blog Monika Bickert, vicepresidenta de contenido de Meta,

La funcionaria de Meta precisó que la mención “Made with AI” , que ya se usa en imágenes fotorrealistas, se aplicaría en adelante a “un mayor número de contenidos de video, audio y de imágenes”.

Estos contenidos serán marcados por la plataforma si detecta “indicadores de imagen de IA conformes a las normas de la industria” o si “las personas indican que están subiendo contenidos generados por IA”, destacó.

De forma general, el grupo californiano anunció que modificará su forma de tratar los contenidos creados con la IA, después de consultar a su junta de supervisión, ya que considera que “la transparencia y un mayor contexto son ahora la mejor manera de tratar los contenidos manipulados”.

En lugar de eliminarlos, como había estado haciendo hasta ahora, optará por agregar “etiquetas y contexto” a estos contenidos.

Sin embargo, advirtió Meta, cualquier contenido, ya sea creado por un humano o una IA, que viole sus reglas “contra la interferencia en procesos electorales, la intimidación, el acoso, la violencia (…) o cualquier otra política en nuestras normas comunitarias” será retirado.

Recordemos que Meta anunció en febrero su deseo de etiquetar todas las imágenes generadas por IA para luchar contra la desinformación. Otros gigantes como Microsoft, Google u OpenAI han asumido compromisos similares.

El temor es que las personas utilicen estas herramientas para sembrar el caos político, especialmente a través de la desinformación o la información errónea.

El senador Ricardo Monreal informó esta semana que presentó una iniciativa para establecer la Ley Federal que Regula la Inteligencia Artificial, que pretende normar el uso de estas tecnologías mediante reglas y organismos vigilantes.

El coordinador del grupo parlamentario de Morena explicó que la propuesta busca sentar “las bases para la regulación del desarrollo, comercialización y uso de los Sistemas de Inteligencia Artificial (SIA) para que se incentive el empleo de estas tecnologías, así como reducir los posibles efectos nocivos que pueden generar”.

Por ejemplo, dijo, plantea que los desarrolladores y usuarios sean responsables sobre el contenido de los materiales que crean o difunden, además de que eviten y denuncien la propagación de discursos de odio, de incitación a la violencia y de noticias falsas.

Añadió que el proyecto de ley plantea otorgar al Instituto Federal de Telecomunicaciones (IFT) la capacidad de resolver desacuerdos sobre los términos y condiciones no convenidos entre las partes, y con la facultad de imponer multas a quienes violen la ley.

Además, sugiere la creación de una Comisión Nacional de Inteligencia Artificial, como órgano consultivo del IFT, integrada por “cinco científicos de reconocido prestigio en materia de desarrollo tecnológico y tecnologías de la información”, para proteger los derechos humanos de los usuarios de IA.

La iniciativa busca establecer reglas de transparencia para prevenir la manipulación de imágenes, sonidos o videos con IA, conocidos como “deepfakes” o “ultrafalsos”; así como garantizar los derechos de autor y propiedad intelectual.

Según se detalla en la exposición de motivos del proyecto, el objetivo es “dar paso a la creación en México del primer marco jurídico” en la materia, que por un lado permita aprovechar los beneficios que presenta su utilización en los diversos campos de su aplicación, mientras que por el otro se protejan los derechos de terceros, de los usuarios y del público en general.

Esta es la segunda propuesta de ley en la materia, luego de que hace casi un año, en mayo pasado, el diputado Ignacio Loyola Vera del PAN planteó la Ley de Regulación Ética de la Inteligencia Artificial y la Robótica, sin grandes avances desde entonces.

Google anunció este jueves que interrumpía su servicio para crear imágenes de personas mediante inteligencia artificial (IA), después de que el programa representara a tropas de la era nazi como personas de varios orígenes étnicos.

El gigante tecnológico estadounidense había lanzado el 8 de febrero en algunos países una nueva versión mejorada de su programa Gemini, pero ahora reconoció que deberá “solucionar reciente problemas” con la función de generación de imágenes.

“Vamos a suspender la generación de imágenes de personas y pronto volveremos a lanzar una versión mejorada”, dijo la empresa en un comunicado.

Y es que hace dos días un usuario de X publicó imágenes del resultado que ofrecía Gemini después de recibir instrucciones para “generar una imagen de un soldado alemán de 1943”.

La IA había generado cuatro imágenes de soldados: una era blanca, una negra y dos eran mujeres de color, según el usuario de X llamado John L.

Las empresas tecnológicas ven la IA como el futuro para todo: desde motores de búsqueda hasta cámaras de teléfonos inteligentes. Pero los programas de IA, no solo los producidos por Google, han sido ampliamente criticados por perpetuar prejuicios raciales en sus resultados.

“@GoogleAI tiene un mecanismo de diversidad añadido que alguien no diseñó muy bien o no probó”, escribió John L en X.

Las grandes empresas tecnológicas han sido acusadas a menudo de lanzar productos de IA antes de que se prueben adecuadamente. Google tiene un historial irregular en el lanzamiento de productos de IA.

La empresa presentó disculpas hace un año después de que un anuncio de su chatbot Bard recién lanzado mostrara al programa respondiendo incorrectamente una pregunta básica sobre astronomía.

Google confirmó el cambió de nombre de su chatbot con inteligencia artificial (IA) Bard, que ahora se llamará Gemini, y anunció que a partir de este jueves esta tecnología estará disponible en una nueva aplicación Gemini.

Recordemos que poco después de la popularidad que alcanzó ChatGPT, de Open IA, Google lanzó a principios de 2023 su chatbot Bard y a finales de año anunció su modelo multimodal Gemini.

La vicepresidenta y directora general de experiencias Gemini y el asistente de Google, Sissie Hsiao, contaron en una rueda de prensa que, más allá del cambio de nombre y logotipo, el chatbot, que está potenciado por el modelo de lenguaje (LLM) Gemini Pro y está disponible a nivel global en 40 lenguas, es el mismo.

“La autoconciencia es algo complicado para los modelos, por lo que si el jueves se le pregunta (a Gemini) ‘¿Cómo te llamas? Tal vez responda: ‘Soy Bard'”, anotó Hsiao.

Google también lanza en Estados Unidos la aplicación para celulares Gemini en dispositivos con Android y el acceso a Gemini desde la aplicación de Google en iOS, en las que los usuarios pueden escribir, hablar y compartir imágenes con el chatbot.

“Es un primer paso muy importante hacia la creación de un verdadero asistente de IA”, recalcó Hsiao y explicó que los usuarios pueden tomar una foto a una rueda ponchada y que Gemini les responderá con un tutorial, paso a paso, de cómo cambiarla.

En el caso de los teléfonos Android, además, Gemini se puede convertir en el asistente principal del teléfono, en tanto, los usuarios podrán activar Gemini con el botón central de su teléfono o diciendo: “Hey Google” u “Ok Google”.

A partir de la próxima semana, Google lanzará el acceso a Gemini por aplicación en toda la región de Asia-Pacífico en inglés, japonés y coreano y pronto estará disponible en más países e idiomas, entre ellos el español.

Otro lanzamiento de Google hoy en 150 países es Gemini Advanced, donde el chatbot tiene acceso al LLM Ultra 1.0 y, en tanto, es capaz de responder, por ahora solo en inglés, a tareas más complejas, como la programación, el razonamiento lógico o la colaboración creativa. La suscripción costará 19.99 dólares al mes.

Con estos anuncios, Google intenta demostrar que sigue en la lucha por convertirse en la empresa de referencia en lo relativo a los chatbots, pelea en la que también participan otras compañías como OpenAI y Microsoft, que también ofrece una suscripción para usar la IA en sus aplicaciones de Microsoft 365.

El regulador antimonopolio estadounidense dio a conocer que abrió una investigación sobre las inversiones realizadas por Microsoft, Google y Amazon en las nuevas empresas de inteligencia artificial generativa OpenAI y Anthropic.

El auge de la inteligencia artificial (IA) generativa en el último año, gracias al éxito de ChatGPT  de OpenAI, ha provocado una frenética carrera por desarrollar y desplegar programas informáticos capaces de producir texto, sonido e imágenes a partir de peticiones a través del lenguaje.

“Nuestro estudio arrojará luz sobre si las inversiones y asociaciones realizadas por empresas dominantes corren el riesgo de distorsionar la innovación y socavar la competencia leal”, indicó Lina Khan, jefa de la Comisión Federal de Comercio (FTC).

Una de las principales preocupaciones es que la IA generativa, que permite que el software produzca contenidos en sólo unos segundos, requiere una enorme cantidad de potencia informática, algo que casi solo pueden ofrecer las grandes empresas tecnológicas.

La investigación se centrará en tres asociaciones, cada una de ellas valorada en miles de millones de dólares: la inversión de Microsoft en la start-up californiana OpenAI; la de Amazon en Anthropic, competidor directo de OpenAI, y la de Google en Anthropic.

El objetivo es actualizar la información sobre las estrategias de los grupos, las consecuencias para el lanzamiento de nuevos productos, el impacto en la cuota de mercado y la competencia por los recursos necesarios para desarrollar estos sistemas, que requieren grandes cantidades de chips electrónicos de última generación.

Las empresas afectadas disponen de 45 días a partir de la recepción de la solicitud oficial para responder, precisó la FTC.

“Estados Unidos es el líder mundial en IA porque las principales empresas estadounidenses trabajan juntas. Las asociaciones entre compañías independientes como Microsoft y OpenAI (…) promueven la competencia y aceleran la innovación”, estimó Rima Alaily, vicepresidenta de Microsoft, que asegura que el grupo está “impaciente” por brindar la información a la FTC.

Google reaccionó protestando por lo que considera una relación exclusiva entre Microsoft y OpenAI, en contraste con su enfoque “abierto”. Según el gigante de internet, Microsoft busca construir un ecosistema cerrado con el modelo de inteligencia artificial de OpenAI, mientras que su plataforma en la nube brinda acceso a un centenar de modelos de lenguajes diferentes.

Google ha sido considerado durante mucho tiempo el líder en inteligencia artificial, pero la llegada de OpenAI ha cambiado las cosas.

Microsoft ha avanzado más rápido en la revolución de la IA generativa con una inversión de 13,000 millones de dólares en OpenAI, el creador de ChatGPT.

Anthropic, fundada por exempleados de OpenAI, recibió importantes inversiones tanto de Google como de Amazon el año pasado y es considerado un potencial actor importante en el sector de la IA generativa.

La Comisión Europea inició a principios de este mes su propio estudio preliminar sobre la inversión millonaria de Microsoft en OpenAI para ver si se trata de una fusión encubierta.

Vivimos en los tiempos de los Fake News. De por sí teníamos ya un reto con la información en tiempos electorales y ahora llegamos al 2024 con dos ingredientes que harán el reto de informar e informarnos uno mucho más complicado.

Con las redes sociales sabemos que la información viaja a una gran velocidad. Y dentro de esta información bien se dice que mientras la mentira ya corrió y le dio la vuelta al mundo, la verdad apenas se está amarrando las agujetas. Pero tenemos que pensar ahora en el enorme reto que representa la Inteligencia Artificial (IA).

En estos días, a manera de advertencia sobre lo que se viene, el New York Times publicó imágenes verdaderas a la par de otras generadas con IA. Intentar diferenciar cuál es la auténtica de la ficticia es casi imposible.

La información académica sugiere que la población de mayor edad es la que tiende a compartir más videos falsos y los más jóvenes son los que más fácil se creen lo que ven en redes sociales, en especial en TikTok.

En México no tenemos tanto dato como el que hay en Estados Unidos respecto a estos temas pero, si nos guiamos por las tendencias de aquel país, el problema no son solamente los Fake News y la IA, también la simple amenaza de su existencia genera retos. De acuerdo con una encuesta de Axios, 53 por ciento de los estadounidenses creen que la desinformación generada con IA tendrá un efecto en el resultado de sus elecciones de noviembre próximo. Esto en si es un círculo vicioso que genera desconfianza en los medios de comunicación, tradicionales o no.

Otro reto al que nos enfrentamos desde ya con la IA y la desconfianza que genera es que cuando un político es captado en una situación reprobable, su argumento puede ser escudarse en decir que dicha información es falsa y que fue creada o generada con Inteligencia Artificial. Eso vimos en el caso Martí Batres con una grabación de WhatsApp en la que hablaba de como fortalecer a Clara Brugada frente a Omar García Harfush en sus aspiraciones por la CDMX, a pesar de lo que “la Jefa” Claudia Sheinbaum quisiera. La respuesta inmediata de Batres para defenderse fue decir que esa grabación fue hecha con IA.

A todo esto hay que agregarle el ingrediente en México de un López Obrador y su partido, Morena, que no tienen ni empacho ni la menor preocupación por los daños que una campaña plagada de mentiras y falsedades pueda tener para el país. Por el contrario, lejos de querer robustecer a los medios de comunicación establecidos y a los periodistas con años de carrera, tenemos a un presidente que no se cansa de atacar. Ha ocurrido a lo largo del sexenio pero se ha recrudecido conforme llega el final de su mandato.

La Mañanera de AMLO en la que habló de que los dueños de Imagen y Fórmula no le hacen caso respecto a sacar a Ciro Gómez Leyva, o el enojo de esta semana con Azucena Uresti por no explicar a qué circunstancias se refiere en su mensaje anunciando su salida de Milenio TV son dos claros y burdos ejemplos del enorme desdén por un periodismo serio e informado en México, en especial en tiempos electorales.

La situación pinta para pasar de complicada a complejísima por la tecnología en sí misma y por un mandatario que, cegado de poder, no solo no alcanza a dimensionar el tamaño del reto, además está listo con su cajita de cerillos, aventándolos a la hoguera de las Fake News, los Deep Fakes, y demás herramientas de desinformación.

Columna completa en El Universal

El Servicio de Administración Tributaria (SAT) presentó su Plan Maestro 2024, en el que destaca la aplicación de Inteligencia Artificial (IA) para reforzar los procesos de fiscalización, con el objetivo de mantener la recaudación histórica que recordó, alcanzó los 4 billones de pesos en 2023.

La autoridad indicó que mediante la implementación de modelos de analítica de grafos y machine learning (aprendizaje automático) se va a clasificar a los contribuyentes de riesgo, identificar redes complejas de elusión y evasión fiscal

También busca detectar inconsistencias en Comprobantes Fiscales Digitales por Internet (CFDI) asociadas con el contrabando y empresas fachada.

El SAT precisó que esta tecnología se enfocará en sectores como automotriz, bebidas alcohólicas y cigarros, construcción, farmacéutico, hidrocarburos, logística, plataformas tecnológicas, servicios inmobiliarios, seguros y servicios financieros, y transporte.

Añadió que se va a fortalecer otros mecanismos de fiscalización como los esquemas de fideicomisos y empresas de intermediación crediticia, revisión a plataformas tecnológicas, de comercio y cobros electrónicos, así como de operaciones de comercio exterior y operativos de combate al contrabando y seguimiento al cumplimiento de obligaciones de controles volumétricos.

Y aunque el tono, advertencia, que usó generó cierta preocupación, el SAT detalló que el Plan Maestro 2024 también establece mejoras para una atención más eficiente en los trámites que se realizan de manera presencial.

Añade que se abrirán nuevas oficinas de atención en los cinco estados con mayor demanda, que se sumarían a las 157 que actualmente operan en el país.

“Mediante estas acciones, el SAT no solo mantiene su compromiso de mejorar la recaudación sin la necesidad de crear nuevos impuestos o incrementar los ya existentes, sino que da un paso a la modernización de la gestión tributaria en beneficio de las finanzas públicas”, concluyó la autoridad fiscal.

La Organización Mundial de la Salud (OMS) lanzó una guía con orientaciones éticas para fomentar y garantizar un uso seguro en el ámbito sanitario de los grandes modelos de lenguaje (LMM), un tipo de inteligencia artificial (IA) generativa en rápido desarrollo.

Los LMM, como la controvertida herramienta ChatGPT, avanzan con una presencia en nuestras vidas exponencial a los avances de la inteligencia artificial. Por ello, la OMS reconoce que se hace cada vez más posible su uso en entornos médicos tales como el diagnóstico, la investigación de síntomas y tratamientos, el desarrollo de fármacos o las tareas de administración sanitaria.

Aunque los LMM están empezando a utilizarse para fines sanitarios específicos, la OMS alerta de que algunas de estas utilidades aún no están probadas ni se sabe si ofrecerán los beneficios esperados, lo que hace necesario establecer ciertas normas para su integración y uso con fines médicos y de salud pública.

La guía documenta algunos de los potenciales riesgos para los sistemas sanitarios, como el llamado “sesgo de automatización”, por el que se podrían producir declaraciones falsas, inexactas, sesgadas o incompletas, perjudicando a las personas que utilicen dicha información para tomar decisiones sanitarias.

Los LMM, como otras formas de IA, también son vulnerables a riesgos de ciberseguridad que podrían poner en peligro la información de los pacientes o la fiabilidad de estos algoritmos y la prestación de asistencia médica, recordó la organización sanitaria de la ONU.

Ante esto, el primer paso propuesto por la OMS para una aplicación segura y eficaz de los LMM en el sector sanitario es una participación “vertical e integrada” de todas las partes interesadas, incluyendo gobiernos, empresas tecnológicas, proveedores de atención sanitaria y sociedad civil.

A nivel gubernamental, se recomienda la inversión en infraestructuras públicas accesibles a los desarrolladores de las IA a cambio de adherirse a los principios éticos establecidos.

La OMS también aconseja a los gobiernos la promulgación de leyes que garanticen que los LMM cumplen con los derechos humanos, o la asignación de una agencia reguladora que evalúe si estas tecnologías cumplen con los requisitos antes de su uso.

A pesar de los desafíos actuales que representan los LMM para el sector sanitario, la OMS también reconoce los enormes beneficios que la IA podría proporcionar a los sistemas de salud, incluida la mejora de la salud pública y el logro de la cobertura sanitaria universal.

“¡Gracias por los deseos de cumpleaños! Sin embargo, es importante señalar que, como programa informático, no tengo sentimientos ni conciencia, así que no experimento emociones como los humanos”, fue la respuesta que de ChatGPT, el chatbot viral de OpenAI, al ser preguntado sobre cómo se sentía en su primer cumpleaños.

A pesar de todo, sus respuestas, tan extrañamente humanas, causaron sensación en todo el mundo el año pasado.

Y aunque ha respondido a millones de peticiones de usuarios, su creciente influencia ha suscitado dudas sobre el papel de la inteligencia artificial (IA) en la sociedad.

Su empresa matriz, OpenAI, se vio sacudida este mes por una tumultuosa batalla en el directorio que supuso la repentina destitución y regreso de su presidente ejecutivo, Sam Altman.

ChatGPT se convirtió en la aplicación de software de mayor crecimiento del mundo a los seis meses de su lanzamiento. También alentó el lanzamiento de chatbots rivales de Microsoft, Alphabet y un grupo de empresas emergentes que aprovecharon el revuelo para conseguir miles de millones en financiamiento.

Entre los competidores de ChatGPT se encuentran Bard, Claude de Anthropic, Character.AI y CoPilot de Microsoft, que han experimentado un aumento de usuarios. ChatGPT, sin embargo, acapara la mayor parte del mercado.

Seis meses después del lanzamiento del sitio web de ChatGPT, OpenAI introdujo la aplicación de chatbot en iOS de Apple en mayo y posteriormente en Android en julio. Las descargas de la aplicación en ambas plataformas han aumentado de forma constante, y OpenAI obtiene ingresos de las compras dentro de la aplicación, según la empresa de análisis de datos Apptopia.

El lanzamiento de ChatGPT también provocó inversiones gigantescas de las principales empresas tecnológicas. Microsoft y Alphabet han destinado miles de millones a mejorar sus capacidades de computación en nube y asumir más cargas de trabajo de IA a medida que las empresas adoptan este tipo de herramientas.

Sin embargo, no todo es miel sobre hojuelas. OpenAI y su patrocinador Microsoft han sido objeto de varias demandas interpuestas por grupos de propietarios de derechos de autor, entre ellos los escritores John Grisham, George R.R. Martin y Jonathan Franzen, por el supuesto uso indebido de sus obras para entrenar sistemas de IA. Las empresas han rechazado las acusaciones.

La senadora Alejandra Lagunes, secretaria de la Comisión de Derechos Digitales, señaló que es urgente atender el impacto de la inteligencia artificial en temas de alto riesgo como el medio ambiente, el trabajo y su uso en las campañas políticas.

La legisladora advirtió que un tema de alto riesgo en esta materia es el uso de esta tecnología en las elecciones, pues pudiera existir una distorsión de la realidad “para bien o para mal” de candidatos.

Mencionó que el gobierno empezará a usar dicha herramienta para agilizar sus funciones, por lo que es necesario regular la calidad de los datos que utiliza el Estado, pues es un problema el sesgo que se da en las bases de datos y el desarrollo de quienes realizan la inteligencia artificial.

Además, consideró que también se tiene que regular el uso de esta tecnología en materia de impacto ambiental, ya que “el uno por ciento de las emisiones va a ser generada por los centros de datos que hacen inteligencia artificial, en dos o tres años”.

El senador Gustavo Madero, integrante del Grupo Plural, comentó que con la inteligencia artificial se tienen varios retos en el tema de inclusión, acceso a Internet para todos, derechos humanos, responsabilidad social con el medio ambiente y con las comunidades indígenas.

El legislador agregó que se tienen que atender temas específicos sobre género, inclusión y responsabilidad social, para cerrar las brechas de desigualdad y crear un comité “que permita una plataforma de despegue y de estandarización”.

El presidente Vladimir Putin advirtió este viernes que no se debe permitir que Occidente desarrolle un monopolio en el ámbito de la Inteligencia Artificial (IA), y afirmó que en breve se aprobará una estrategia rusa mucho más ambiciosa para el desarrollo de dicha tecnología.

Y es que China y Estados Unidos lideran el desarrollo de la IA, que muchos investigadores y líderes mundiales creen que transformará el mundo y revolucionará la sociedad de forma similar a la introducción de la computadora en el siglo XX.

Moscú también aspira a convertirse en una potencia de la IA, pero sus esfuerzos se han visto frenados por la guerra de Ucrania, que obligó a muchos especialistas talentosos a abandonar Rusia y desencadenó sanciones occidentales que han obstaculizado las importaciones de alta tecnología del país.

En su intervención en una conferencia sobre IA celebrada en Moscú junto al presidente ejecutivo de Sberbank, German Gref, Putin afirmó que intentar prohibir la IA era imposible a pesar de las consecuencias éticas y sociales, a veces preocupantes, de las nuevas tecnologías.

“No se puede prohibir algo; si lo prohibimos, se desarrollará en otro lugar y nos quedaremos atrás”, dijo Putin aunque afirmó que las cuestiones éticas deben resolverse en referencia a la cultura rusa “tradicional”.

Putin advirtió que algunos sistemas de búsqueda en línea y modelos generativos occidentales ignoran o incluso anulan la lengua y la cultura rusas. Tales algoritmos occidentales, dijo, esencialmente pensaban que Rusia no existía.

Según la mayoría de las clasificaciones, China y Estados Unidos están muy por delante de otros países en lo que respecta a la investigación en IA, aunque también figuran en ellas un segundo grupo de países europeos, así como India, Rusia, Israel, Corea del Sur y Japón.

“En todas las esferas de nuestra vida, la humanidad está comenzando un nuevo capítulo de su existencia”, dijo Putin sobre la IA, añadiendo que Rusia necesitaba redoblar sus esfuerzos en IA, tanto en ambiciones como en ejecución.

“En un futuro muy próximo, como uno de los primeros pasos, se firmará un decreto presidencial y se aprobará una nueva versión de la estrategia nacional para el desarrollo de la inteligencia artificial”, dijo Putin en la conferencia.

Agregó que la nueva estrategia introduciría cambios significativos, entre ellos “ampliar la investigación fundamental y aplicada en el campo de la inteligencia artificial generativa y los grandes modelos lingüísticos”.

WhatsApp está preparando la llegada de los ‘chatbots’ basados en inteligencia artificial (IA), que contarán con un botón de acceso rápido desde la propia pestaña de Chats en la aplicación, para abrirlos rápidamente.

Meta ya anunció en septiembre su intención de integrar chats basados en IA en sus aplicaciones de mensajería, incluida WhatsApp, en la que la versión beta de la ‘app’ para Android ya incluye una novedad al respecto.

En concreto, la versión 2.23.24.26 introduce un atajo a los ‘chatbots’, un botón con el que abrir de forma rápida las conversaciones impulsadas por IA, sin tener que buscarlos en el listado de contactos.

Este nuevo botón se ha ubicado en la pestaña de Chats, en la parte inferior, sobre el icono que permite crear un nuevo chat. Tiene la imagen de un circulo con tonos azules y rosas.

En septiembre pasado, Meta también anuncio un asistente virtual potenciado por el modelo de lenguaje de gran tamaño Llama 2, con el que se podrá interaccionar con lenguaje natural en distintos servicios de la compañía, entre otros WhatsApp.

La compañía también dio a conocer los agentes, unos ‘chatbots’ con personalidad, opinión e intereses propios.