Tag

inteligencia artificial

Browsing

Google anunció este martes que las nuevas herramientas de inteligencia artificial (IA) de sus servicios de videotelefonía Google Meet podrán “asistir” en lugar del usuario a una reunión y tomar notas.

“Con la función ‘asiste por mí’, Duet AI podrá participar en la reunión en tu lugar, hacer que tu mensaje se escuche y, por supuesto, prepararte un resumen”, destacó la empresa en un comunicado.

Entre las nuevas funciones de Google Meet, que se anunciaron hoy en el marco del evento Google Cloud Next, están: los subtítulos con traducción automática en 18 idiomas, tomar notas, hacer resúmenes y crear clips de la reunión.

Asimismo, los usuarios podrán hablar en privado con un chatbot de Google para repasar detalles de la conferencia en curso.

Según Dave Citron, director sénior de producto de Google para Meet, ha habido tres “eras de innovación” para las videoconferencias.

La primera fue la pandemia, cuando mucha gente utilizó por primera vez estos servicios; la segunda fue el regreso a un entorno de trabajo híbrido y la tercera es ahora, con la llegada de la IA.

“Ahora es el punto de inflexión que alcanzamos en los últimos ocho meses con modelos de lenguaje LLM y modelos de difusión”, señaló Citron.

Google anunció hoy que implementará su asistente Duet AI en todas sus aplicaciones Workspace, incluidas Gmail, Drive, Slides y Docs por un precio mensual de 30 dólares por usuario, al menos para las grandes organizaciones.

Aparna Pappu, directora de Workspace, dijo a CNBC que Google no ha fijado los precios para las empresas más pequeñas.

Ese es el mismo precio que Microsoft cobra por su sistema de IA llamado Copilot, con características similares que funcionan en la mayoría de las aplicaciones de Office.

Ayer, OpenAI, compañía que se popularizó el año pasado tras el lanzamiento de su chatbot ChatGPT, lanzó ChatGPT Enterprise, una versión para empresas. No obstante, la compañía no hizo público el precio de suscripción.

Meta ha creado una herramienta de Inteligencia Artificial (IA) generativa llamada AudioCraft, que está diseñada para generar audio y música a partir de entradas de texto y que se entrena con señales de audio sin procesar.

AudioCraft engloba tres modelos de lenguaje: EnCodec, AudioGen y MusicGen, siendo esta última la que presentó el pasado mes de junio como un modelo simple de lenguaje desarrollado bajo un enfoque de una sola etapa de patrones de tokens eficientes entrelazados.

En este caso, Meta ha recordado que MusicGen es un modelo entrenado con música propiedad de la compañía y con licencia específica, que genera música a partir de entradas de usuario basadas en texto.

AudioGen, por su parte, se entrenó con efectos de sonido de uso público y genera audio a partir de entradas de usuario basadas en texto. Finalmente, el decodificador EnCodec, permite “generar música de mayor calidad con menos artificios”. Todos estos modelos están disponibles para fines de investigación.

Meta ha reconocido que, si bien los modelos de lenguaje de IA generativa han generado expectación y demostrado “habilidades excepcionales”, no se ha mostrado el mismo interés por la IA generativa de audio.

Esto podría deberse a “que la música es el tipo de audio más difícil de generar porque se compone de patrones locales y de largo alcance, desde un conjunto de notas hasta una estructura musical global con múltiples instrumentos”, según ha comentado en el anuncio de AudioCraft.

Esta herramienta de IA generativa de música y sonido de código abierto, que también ofrece la capacidad de compresión, permite que los usuarios trabajen sobre la misma base de código bien construir sobre lo que otros han hecho.

De ese modo, estos creadores pueden ampliar estos modelos y adaptarlos a sus casos de uso para la investigación, para lo que Meta ofrece “posibilidades casi ilimitadas”, según este documento.

YouTube está preparando una nueva función con la que se podrán generar resúmenes de los vídeos de la plataforma de manera automática gracias a la Inteligencia Artificial (IA).

Google ha comenzado a probar los resúmenes generados automáticamente por IA en YouTube, que se incluyen tanto en la página de visualización como en la de búsqueda, según ha compartido en una actualización de su página de soporte.

Estos resúmenes tienen por objetivo ofrecer una breve descripción general del contenido de un vídeo para ayudar a los usuarios a elegir lo que desean ver, y se mostrarán en las páginas de visualización y búsqueda de Youtube.

La compañía ha detallado que estos resúmenes “no reemplazan las descripciones de los vídeos que están escritas por los creadores” y que, por el momento, se está probando con una cantidad limitada de vídeos y de espectadores.

Apple está trabajando en ofertas basadas en Inteligencia Artificial similares a ChatGPT de OpenAI y Bard de Google, informó este miércoles Bloomberg News.

La agencia cita a personas con conocimiento del asunto, lo que hizo subir las acciones de la empresa un 2% en la sesión de hoy.

El fabricante del iPhone ha construido su propio marco, conocido como “Ajax”, para crear grandes modelos de lenguaje (LLM) y también está probando un chatbot que algunos ingenieros llaman “Apple GPT”, según el informe.

Varios equipos están involucrados en el esfuerzo, que está dirigido por John Giannandrea, jefe de aprendizaje automático y la IA de la compañía, y Craig Federighi, máximo ejecutivo de ingeniería de software de Apple, según el informe.

Apple podría hacer importantes anuncios relacionados con la IA el año que viene, de acuerdo al reporte. Las acciones de Microsoft, Nvidia y Alphabet presentaron caídas tras el informe.

Elon Musk anunció este miércoles el lanzamiento de xAI, una nueva empresa centrada en el desarrollo de Inteligencia Artificial (IA), cuyos detalles se espera sean compartido a finales de la semana

“El objetivo de xAI es comprender la verdadera naturaleza del universo”, afirma la start-up en su página web, sin dar más detalles por el momento.

El propio Musk explicó en Twitter que la ambición de xAI era “entender la realidad”.

La web anuncia una sesión de preguntas y respuestas el viernes en Twitter para hablar de esta recién llegada a la IA.

La compañía se estableció formalmente en Nevada en marzo pasado, según el registro corporativo del estado, pero dice que su equipo técnico está basado en el área de San Francisco, California. En el momento de su registro, Musk figuraba como el director de xAI.

El equipo de xAI, “liderado por Elon Musk”, según la web, está formado por reconocidos especialistas en Inteligencia Artificial, entre ellos algunos de OpenAI, creadora de ChatGPT, Google y Microsoft.

Hace varios meses, el multimillonario reconoció que había comprado una gran cantidad de unidades de procesamiento gráfico (GPU), esenciales para el desarrollo de software de IA, sin revelar qué pensaba hacer con ellas.

En una entrevista con el presentador de Fox Tucker Carlson en abril pasado, Musk dijo que planeaba “crear una tercera opción” entre quienes dominan actualmente el desarrollo de la dicha tecnología:  Microsoft/OpenAI y Google.

Los dos gigantes tecnológicos han creado las interfaces más avanzadas para la llamada IA generativa.

Según el magnate, un modelo de inteligencia artificial “que se interesara por el universo probablemente no destruiría la especie humana, porque somos una parte interesante del universo. Esperemos que piense así”.

El anuncio llega en medio de la polémica que ha generado Musk al enfrentarse a Mark Zuckerberg por el lanzamiento de Threads, una aplicación que compite directamente con Twitter.

Elon Musk se volvió a mostrar partidario de regular la Inteligencia Artificial (IA), algo en lo que ha venido insistiendo de meses atrás.

“Estoy a favor de la regulación, hay que tener alguna regulación para la Inteligencia Artificial porque puede ser un riesgo para el público”, manifestó este viernes Musk en París, donde fue el invitado de honor al certamen tecnológico VivaTech.

El magnate estadounidense nacido en Sudáfrica insistió en señalar las consecuencias potencialmente “catastróficas” de la IA en la vida de las personas. “Tenemos que darnos una pausa (…) Hay que minimizar la posibilidad de que algo vaya mal con la aplicación de la súper inteligencia”, aseguró.

“Se trata de la tecnología más rompedora que jamás hemos visto”, abundó Musk, considerado uno de los precursores de herramientas como Chat GPT. No obstante, destacó que la IA tiene algunos puntos positivos: “Nos dirigimos a la era de la abundancia, podemos tener todo lo que queramos”, añadió.

Al hacer estas afirmaciones, el entrevistador le cuestionó si no sería también buena idea regular Twitter, a lo que Musk respondió con un rotundo “no”.

El multimillonario defendió su criticada gestión en Twitter, por la que reconoció haber pagado “caro”, en referencia a los 44,000 millones de dólares que desembolsó a finales de 2022.

“Estaba preocupado porque Twitter estaba teniendo un efecto negativo en la civilización y todo lo que afecta a la civilización no es bueno”, opinó el dueño de la red social, que ha perdido una buena parte de su valor en bolsa desde que la adquirió mientras puso en marcha un drástico plan de despidos.

Aseguró que Twitter se ha desecho del 90% de los “bots” y presumió de es la única compañía del sector cuyo algoritmo de funcionamiento “no es un secreto”. “Los usuarios pasan más tiempo en nuestra red, esa es muy buena señal”, abundó.

Sobre su negativa a regular la plataforma, Musk se definió como “un defensor de la libertad de expresión” y consideró que los límites de la misma lo marcan las leyes de cada país.

Aclaró que la red que dirige “no promoverá cosas ofensivas”, pero también advirtió de que no se debe caer “en la línea de la censura” que, en su opinión, acaba por empobrecer el debate público.

Antes de su intervención en VivaTech, Musk fue recibido por el presidente francés, Emmanuel Macron, quien procura convencer al empresario que instale una fábrica de Tesla en este país.

El director ejecutivo de Apple, Tim Cook, dijo que la tecnología que está detrás de los chatbots con inteligencia artificial (IA) generativa es tan “poderosa” y cambia tan rápido que los gobiernos van a tener dificultades para regularla, por lo que abogó por una regulación que parta de las propias empresas.

Las empresas que generan la IA deben “regularse a sí mismas” más allá de las normas que los estados implanten, dijo en una entrevista con la cadena ABC publicada este martes.

“La regulación (estatal) tendrá dificultades para mantenerse al día con el progreso de esta tecnología porque se está moviendo muy rápido”, por lo que “las empresas tienen que aplicar sus propias decisiones éticas”.

Cook señaló que los modelos grandes de lenguaje (LLM) -que está detrás de chatbots como ChatGPT de OpenAI, Bing de Microsoft y Bard de Google- son muy “prometedores”, pero que pueden tener un doble filo.

“Creo que es muy importante ser muy decidido y reflexivo en el desarrollo y la implementación de estos (LLM) porque al ser tan poderosos uno se preocupa por cosas como la desinformación”, detalló el ejecutivo en el programa “Good Morning America” de ABC.

La semana pasada, un grupo de más de 300 expertos e investigadores de la industria, entre los que se encuentran el director ejecutivo de Google DeepMind, Demis Hassabis; el director ejecutivo de Anthropic, Dario Amodei, y el director ejecutivo de OpenAI, Sam Altman, entre otros, advirtieron en una carta que la IA plantea un “riesgo de extinción” comparable al de las pandemias o la guerra nuclear.

Cook dijo en la entrevista que él mismo usa el ChatGPT, y que esta tecnología es algo que su compañía “está mirando de cerca”.

Con respecto a la IA en general, el principal representante de la compañía de la manzana dijo que es una tecnología que ya está integrada en sus productos, pero que la gente cuando los usa no piensa “en ello como IA”.

Esta semana Apple celebra su Conferencia Mundial de Desarrolladores (WWDC, en inglés) que se desarrolla en su sede de Cupertino (EE. UU.) y ayer la compañía presentó varios productos, de los que el más destacado fue Apple Vision Pro, un set de gafas y auriculares de realidad mixta con el que los usuarios podrán experimentar experiencias de realidad virtual y realidad aumentada.

El director ejecutivo de OpenAI, Sam Altman, creador de la interfaz ChatGPT, alertó este lunes sobre una “reglamentación estricta” de la Inteligencia Artifical (IA), que amenaza con frenar su desarrollo, aunque reconoció la necesidad de una vigilancia a largo plazo.

Recordemos que Altman defendió el mes pasado, ante una comisión en el Congreso de los Estados Unidos, la intervención de los gobiernos para regular la IA y dijo que era “clave” para “limitar los riesgos” vinculados con esta tecnología.

Sin embargo, este lunes subrayó que su llamado para una mayor regulación no iba dirigido a “los sistemas actuales”.

“Creo que una reglamentación estricta de este sector o intentar ralentizar esta increíble innovación sería un error”, declaró en la Universidad de Tel Aviv, durante una visita que el directivo realiza por Israel.

Altman reconoció que el riesgo de una “superinteligencia” mal usada era real. Es “algo que deberemos tal vez afrontar a lo largo de la próxima década y eso no deja mucho tiempo a las instituciones del mundo para adaptarse”, señaló.

La visita del empresario estadounidense a Israel forma parte de su gira mundial, que inició el mes pasado, y que busca tranquilizar a líderes y autoridades sobre las implicaciones de la IA; Altman aboga por una regulación que no sea demasiado restrictiva para su negocio.

Y es que la Inteligencia Artificial generativa de OpenAI, abierta al gran público a fines de 2022, ha generado una avalancha de temores en cuanto a su posible uso a fines de desinformación, destrucción de empleo y robo de derechos de autor.

En una reunión con el presidente israelí, Isaac Herzog, Altman insistió en la “urgencia” de “encontrar la forma de mitigar estos enormes riesgos”.

La bancada del PAN en la Cámara de Diputados presentó una iniciativa para expedir la Ley de Regulación Ética de la Inteligencia Artificial y la Robótica, cuyo objeto, indicaron los legisladores, es regular y normar el uso de estas tecnologías con fines gubernamentales, económicos, comerciales, administrativos, comunicacionales y financieros, con apego a la ética y al derecho.

La propuesta, enviada a la Comisión de Ciencia, Tecnología e Innovación, con opinión de la de Presupuesto y Cuenta Pública, busca establecer lineamientos de políticas públicas en México para la regulación ética del uso de la Inteligencia Artificial (IA) y la Robótica dentro del territorio nacional.

La iniciativa, firmada por las diputadas y los diputados del PAN, plantea fomentar la creación de Normas Oficiales Mexicanas, basadas en principios éticos, para el buen uso de la IA y la Robótica en beneficio de la sociedad mexicana, siempre respetando los derechos humanos, la paridad entre los géneros, sin discriminación alguna por raza, origen étnico, religión, clase social o posición económica.

Busca crear el Consejo Mexicano de Ética para la Inteligencia Artificial y la Robótica como organismo público descentralizado; además, la Red Nacional de Estadística de Uso y Monitoreo de la Inteligencia Artificial y la Robótica y vincula a los organismos autónomos con la regulación de su uso en territorio nacional, y estipula que el Instituto Nacional de Estadística y Geografía será el centro generador de información sobre el uso de la IA en el país.

En la exposición de motivos, señala que es necesario comenzar a normar esta materia, pues en la actualidad las leyes no abordan a profundidad la regulación de la IA, concepto que gana terreno en todo el mundo, ante lo cual el reto es crear un marco legal y ético para su desarrollo, implementación y utilización.

Considera que la IA implica el uso de algoritmos y modelos matemáticos que procesan grandes cantidades de datos para tomar decisiones; realiza tareas que antes eran reservada a las personas, y su crecimiento “obliga a estar atentos para prevenir y analizar las posibles desventajas directas o indirectas que pueda generar su proliferación”.

La IA, precisa, presenta un acelerado y claro crecimiento en nuestro país sin regulación legal, dejando un vacío entre las leyes y su implementación.

El diputado Ignacio Loyola Vera del PAN recordó que existe una preocupación internacional por la creación de normas y esquemas legales que proporcionen un marco regulatorio prudente y pertinente pues, considerando que es un sistema organizado para imitar la inteligencia humana y concentrar información, “su uso perverso no queda exento”, por lo que su posible utilización facciosa y manipulación constituyen un reto que se debe enfrentar.

La IA no es una moda, apunta la exposición de motivos de la iniciativa, por lo que estima oportuno regularla desde ahora y no esperar que su utilización sea un comportamiento generalizado; “será demasiado tarde”.

Sam Altman, jefe de OpenAI y creador de ChatGPT, está recorriendo el mundo para tranquilizar sobre los riesgos de la Inteligencia Artificial (AI) y advertir acerca de proyectos de regulación quizá demasiado restrictivos.

Dieciséis ciudades, cinco continentes, reuniones cara a cara con jefes de Estado, conferencias en universidades e incluso una aparición en la reunión que el grupo Bilderberg, el discreto club de dirigentes políticos y económicos mundiales.

Ese es el impresionante cartel del “OpenAI Tour”, como lo denominó la empresa californiana.

La gira ilustra el estatus de gurú mundial de la Inteligencia Artificial que se ha ganado Sam Altman, de 38 años, a raíz del fulgurante éxito de su robot conversacional ChatGPT.

Pero ahora debe responder a los temores que éste provoca: desinformación, manipulación de elecciones, destrucción masiva de empleos, robo a creadores e, incluso, amenaza global para la humanidad.

Europa y Estados Unidos están estudiando regular el sector, luego de que numerosas personalidades pidieran en marzo pasado una pausa en la investigación, mientras Italia suspendió ChatGPT tres semanas por uso no consentido de datos personales.

El sábado, los países del G7 decidieron crear un grupo de trabajo y, en Bruselas, el comisario europeo Thierry Breton sugirió poner en marcha rápidamente un pacto sobre la Inteligencia Artificial.

Sam Altman explicó en Twitter que preveía reunirse con usuarios y reguladores durante su gira.

Su campaña empezó con una comparecencia ante los senadores estadounidenses el 16 de mayo, donde causó sorpresa al exclamar: ¡regúlenme!”. Tomando la delantera, declaró que lo que más miedo le da es que la AI pueda causar “importantes daños al mundo” y propuso crear una agencia mundial de regulación.

Sin embargo, también consideró que se podrían crear numerosos empleos y recalcó los riesgos que podría entrañar una regulación demasiado estricta pues, “si la industria estadounidense se ralentiza, China o cualquier otro podrán avanzar más rápido”.

Al día siguiente, el directivo viajó a Rio de Janeiro, y luego fue a Lagos (Nigeria) y a Lisboa. Esta semana, visitó Madrid, Londres, París, Varsovia y Múnich. Sus próximas paradas serán Tel Aviv, Dubái, Nueva Delhi, Singapur, Yakarta, Seúl, Tokio y Melbourne.

Por las ciudades por donde pasa, Altman repite su discurso, que mezcla optimismo y advertencia, para tratar de convencer de que la AI no escapará al control humano.

En París, Varsovia y Madrid fue recibido como si de un jefe de Estado se tratara, reuniéndose respectivamente con el presidente francés Emmanuel Macron y con los jefes de gobierno polaco y español Mateusz Morawiecki y Pedro Sánchez, todos ellos deseosos de aprovechar esta oportunidad económica, aunque recordando la necesidad de establecer un control.

En Rio, en el Museo del Mañana, defendió la necesidad de regular, pero insistió en que espera que ChatGPT dé lugar a “un avance científico real” y que “mejore la vida de la gente”. De manos del alcalde de Rio de Janeiro, Eduardo Paes, que se mostró entusiasta, recibió simbólicamente las llaves de al ciudad.

En Londres, sin embargo, su llegada generó menos consenso. En el University College se formó una fila de alumnos deseosos de escucharle, pero también una protesta con un puñado de participantes. “No deberíamos permitir que multimillonarios de Silicon Valley con complejo de mesías decidan lo que queremos”, declaró un estudiante.

En tanto, Sam Altman advirtió que OpenAI podría “dejar de operar” en la Unión Europea si el futuro reglamento le imponía demasiados límites.

El director ejecutivo y cofundador de Open AI, desarrolladora del programa de generación de texto ChatGPT, Sam Altman, pidió este martes al Congreso de Estados Unidos que regule el desarrollo y los usos de la inteligencia artificial (IA).

En una comparecencia ante un subcomité del Senado, Altman hizo un listado de las aplicaciones beneficiosas de la tecnología, desde la medicina hasta la lucha contra la crisis climática, y confió en que la IA puede ser utilizada para el beneficio de la humanidad.

Sin embargo, matizó que es necesaria la intervención de los gobiernos del mundo para asegurar que estas herramientas se desarrollan de manera que protejan y respeten los derechos y las libertades de los ciudadanos.

“Creemos que los beneficios de las herramientas que hemos desarrollado hasta ahora superan ampliamente los riesgos”, defendió el empresario durante la audiencia.

El testimonio de Altman se produce en medio de la preocupación por parte de las autoridades estadounidenses por la posibilidad de que el rápido avance de las tecnologías de IA tenga efectos inesperados sobre la sociedad.

Los legisladores citaron riesgos como la pérdida de empleos o el uso de herramientas de creación de contenidos para generar información falsa por parte de actores extranjeros.

Para ilustrar sus preocupaciones, el senador Richard Blumenthal, presidente del subcomité de Privacidad, Tecnología y la Ley e impulsor de la audiencia, emitió una grabación realizada con inteligencia artificial que había sido escrita por ChatGPT, imitando el estilo y los principales focos de interés del congresista.

Altman admitió que probablemente la IA afectará al mercado laboral, pero se mostró optimista en que a la larga, la tecnología generará más empleos nuevos de los que destruirá. “Somos tremendamente creativos”, confió el empresario.

Altman también se mostró abierto a la sugerencia de Blumenthal de que el gobierno desarrolle laboratorios independientes para comprobar la fiabilidad de los modelos de inteligencia artificial, y que les darían una nota similar a la calificación nutricional de los alimentos.

El responsable de OpenAI admitió que sus productos todavía cometen errores, pero que con el tiempo se volverán más y más fiables.

Otro de los senadores impulsores de la audiencia, el republicano Josh Hawley, aseguró que la inteligencia artificial es “una de las innovaciones más significativas de la historia”, pero que todavía no está claro si será más parecida a la invención de la imprenta o a la de la bomba atómica.

Los congresistas defendieron que si bien es cierto que se necesita regulación pública, las empresas de IA como OpenAI no tienen que esperar al Congreso para instaurar mecanismos que permitan controlar el desarrollo de la tecnología para mitigar los daños.

El presidente ejecutivo de OpenAI, Sam Altman, comparecerá por primera vez ante una comisión del Senado la próxima semana, justo cuando el Congreso de Estados Unidos debate sobre la mejor manera de regular la inteligencia artificial.

Altman testificará el martes ante la Subcomisión de Privacidad, Tecnología y Derecho del Senado sobre las leyes que podrían ser necesarias para proteger a los estadounidenses a medida que el Gobierno y las empresas empiezan a utilizar la IA en todos los ámbitos.

Será el primer testimonio de Altman ante el Congreso, informó el panel al anunciar la audiencia.

Altman también asistirá a una cena una noche antes que se ofrece para los miembros de la Cámara de Representantes, según la oficina del representante Ted Lieu, coanfitrión del evento.

La semana pasada, Altman participó en una reunión de la Casa Blanca sobre IA en la que se debatió cómo garantizar salvaguardias normativas.

En respuesta a una pregunta sobre si las empresas están de acuerdo en la normativa, Altman dijo a los periodistas: “Sorprendentemente estamos de acuerdo en lo que debe ocurrir”.

También comparecerá Christina Montgomery, directora de privacidad de IBM.

“La inteligencia artificial necesita urgentemente normas y salvaguardias para hacer frente a sus inmensas promesas y escollos”, dijo el senador Richard Blumenthal, presidente del panel. “Esta audiencia inicia el trabajo de nuestro Subcomité para supervisar e iluminar los avanzados algoritmos y la poderosa tecnología de la IA”, remató.

Uno de los mayores expertos en Inteligencia Artificial (IA), Gary Marcus, profesor emérito de psicología y ciencia neuronal de la Universidad de Nueva York, cree que va a ser necesario aplicar marcas de agua en las imágenes generadas por robots, y algo parecido también en los textos, para diferenciarlos así de los generados por humanos y evitar que se propague la desinformación.

En un artículo reproducido en el New York Times, Marcus, autor de dos libros dedicados a la IA, trata de evitar el tono catastrofista: “No soy de los que piensa que el planeta entero va a ser dominado por los robots”, pero admite que le preocupa “lo que los actores negativos pueden hacer con estas cosas, porque nadie los controla”.

“¿Los beneficios superan a los costos? -se pregunta- La respuesta más honesta es que no lo sabemos. Algunos quisiéramos que esto se ralentice porque vemos sus costos a diario, pero eso no significa que no haya beneficios”, matiza, especialmente en los ámbitos técnicos, y advierte de paso contra quienes abogan por el ChatGPT como medio de ganar una especie de carrera con China.

Como remedio inmediato, Marcus sugiere alguna especie de gobernanza internacional sobre el mundo de la IA: “Lo que necesitamos es algo global, neutral, sin ánimo de lucro, con gobiernos y empresas participando en ello. Tenemos que coordinar esfuerzos sobre cómo crear reglas (…) Necesitamos crear un código sobre lo que es aceptable y quién es el responsable”.

Este organismo supranacional respondería a dudas razonables que ya se plantean, y pone los siguientes ejemplos: ¿Qué pasa si los chatbots mienten mucho?, ¿se puede permitir?, ¿quién será el responsable?; si la desinformación se expande ampliamente, ¿qué hacer? ¿quién asume los costos? ¿queremos que las empresas pongan dinero para crear herramientas que detecten la desinformación que ellas mismas crean?”.

Si no se avanza en una regulación rápida de la IA y los chatbots, Marcus pone un ejemplo de lo que eso puede significar en las próximas elecciones presidenciales en Estados Unidos: “Si no hacemos nada, nadie va a creerse nada, y todas aquellas cosas que no quieran creer, lo van a rechazar atribuyéndolas a la IA. Con lo que los problemas sobre polarización y el discurso público no harán sino empeorar”.

Las advertencias de Marcus se suman a las de otros expertos que en los últimos días están alertando sobre el avance espectacular de la IA, hasta ahora prácticamente sin control.

Este lunes, en una entrevista con el mismo diario, el británico Geoffrey Hinton, uno de los grandes pioneros en el desarrollo de la IA, explicó que ha dejado su trabajo en Google para poder advertir con mayor libertad de los peligros que plantean estas nuevas tecnologías.

En su opinión, se deberían frenar los trabajos en este ámbito hasta que se entienda bien si será posible controlar la IA, una idea en línea con otros llamamientos públicos de personalidades del sector tecnológico que han pedido suspender temporalmente los experimentos.

En Broojula, Guillermo Pérezbolde, autor del libro Metaverso, el negocio de la realidad virtual; fundador y director general de la agencia Mente Digital, nos habla sobre la decisión de Geoffrey Hinton y las críticas a la inteligencia artificial.

Estados Unidos comenzará a usar la inteligencia artificial (IA) para combatir el tráfico de fentanilo, señaló este viernes el secretario de Seguridad Nacional, Alejandro Mayorkas.

El funcionario anunció hoy la creación de un grupo de trabajo dentro de su departamento para explorar cómo se puede usar esta tecnología para aumentar la seguridad en el país, incluyendo sus usos para detener el tráfico de fentanilo.

“Exploraremos los diferentes usos de esta tecnología para detectar mejor los cargamentos de fentanilo, identificar e incautar el flujo de precursores químicos y localizar los núcleos de las organizaciones criminales para desmantelarlas”, detalló en una conferencia en la organización Council of Foreign Relations, con sede en Washington.

Están interesados además en explorar cómo se puede usar la IA para contrarrestar los ataques a la ciberseguridad por parte de agentes extranjeros, entre los que mencionó a China y Rusia.

“Debemos abordar las muchas formas en que la inteligencia artificial alterará drásticamente el panorama de amenazas y aumentar las herramientas que poseemos para tener éxito frente a estas amenazas”, subrayó Mayorkas.

Recordemos que el consumo de fentanilo en Estados Unidos, una sustancia que dejó más de 100,000 muertos por sobredosis el año pasado en el país, ha llevado al gobierno de Joe Biden a tomar medidas para frenar la entrada de esa sustancia.

Entre ellas está el intento de reforzar la colaboración con México, a quien Estados Unidos señala como uno de los principales países por los que la droga entra a su territorio.

Sin embargo, el presidente Andrés Manuel López Obrador(AMLO) ha respondido que la crisis de sobredosis de opiáceos es un tema de salud pública que Estados Unidos debe resolver e incluso ha negado que en el país se fabrique fentanilo, argumentando que esta sustancia llega a Norteamérica desde Asia.

Sam Altman, director ejecutivo y cofundador de OpenAI, confirmó que su empresa no desarrollará “por algún tiempo” GPT-5, el presunto sucesor de su chatbot con inteligencia artificial (IA) GPT-4, después de que un grupo de empresarios del sector tecnológico solicitaron en una carta que se suspendan durante seis meses los sistemas de IA “más poderosos que GPT-4”.

Altman dijo que a la carta que firmaron los empresarios “le faltaban la mayoría de los matices técnicos sobre dónde necesitamos la pausa”.

La carta fue firmada por Musk, el cofundador de Apple Steve Wozniak y los investigadores estadounidenses Yoshua Bengio y Stuart Russel, entre muchos otros.

Durante una conferencia celebrada en el Instituto de Tecnología de Massachusetts (MIT), a la que asistió por videoconferencia, Altman aseguró que su compañía no está trabajando en el desarrollo de un GPT-5 por lo que la misiva, que ya ha sido respaldada por más de 25,000 personas, le pareció un poco “ridícula”.

Sin embargo, coincidió con la idea de que OpenAI tiene que “moverse con precaución”, ya que hay “un rigor cada vez mayor en cuestiones de seguridad” y eso es “realmente importante”.

“También estoy de acuerdo en que, a medida que las capacidades se vuelven más y más serias, el listón de seguridad debe aumentar”, dijo Altman en el evento.

T es que recordemos que OpenAI creó ChatGPT y luego GPT-4, un chatbot de IA que puede generar respuestas similares a las de un humano en cuestión de segundos, y Microsoft utiliza su tecnología en su chatbot Bing.

No obstante, el hecho de que OpenAI no esté trabajando en GPT-5 no significa que no esté expandiendo las capacidades de GPT-4.

Para los más preocupados por el rápido crecimiento de estas tecnologías con IA, el anuncio de Altman de que OpenAI no está desarrollando GPT-5 no es de consuelo, ya que la empresa está ampliando el potencial de GPT-4 conectándolo a internet, por ejemplo, y, además, podría lanzar un GPT-4.5, como hizo con GPT-3.5.

OpenAI no es la única empresa que está trabajando en este tipo de herramientas.

Instagram anunció este jueves que comenzó a probar una herramienta basada en inteligencia artificial (IA) para confirmar la edad de sus usuarios en Estados Unidos.

Legisladores de todo el mundo han exigido que el servicio de redes sociales, propiedad del gigante tecnológico estadounidense Meta, proteja a los jóvenes de contenidos para adultos e invasiones de su privacidad.

Según las empresas de tecnología, ese tema no se resuelve fácilmente, pero podría abordarse con cambios tecnológicos más amplios, como la vinculación de las fechas de nacimiento al teléfono celular de una persona.

Meta anunció la prueba de nuevas herramientas de verificación para cualquier persona que intente cambiar su edad de menor de 18 a mayor de esa edad en la plataforma, incluida la grabación de un video selfie o pedir a sus amigos que verifiquen su edad.

“Estamos probando esto para asegurarnos de que los adolescentes y adultos tengan la experiencia adecuada para su grupo de edad”, dijo Meta.

Las selfies en video serán enviados a la firma británica Yoti, que ha desarrollado una herramienta de inteligencia artificial que, según dice, puede calcular la edad de los menores de 20 años con un margen de 1.5 años. Sin embargo, los propios datos de Yoti sugieren que su herramienta no es tan eficaz en la verificación de la edad de mujeres y niñas, y de personas con piel oscura.

Tanto Yoti como Meta dijeron que las selfies se eliminarán después de la verificación.

En 2021, el jefe de Instagram, Adam Mosseri, dijo a los legisladores estadounidenses que sentía que no era el trabajo de Instagram verificar la edad de los usuarios. “Creo que sería mucho más efectivo verificar las edades a nivel del dispositivo”, afirmó.

Recordemos que Instagram se vio sacudido el año pasado por revelaciones de la denunciante Frances Haugen según la cual los ejecutivos de la firma sabían que la plataforma podría dañar la salud mental de los jóvenes, en particular de las adolescentes. Desde entonces, ha implementado varias funciones destinadas a proteger a los usuarios más jóvenes.