Tag

OpenAI

Browsing

TikTok anunció que empezará a utilizar una tecnología destinada a ayudar a etiquetar imágenes y videos generados por inteligencia artificial que se publiquen en la plataforma.

Según dijo la red, adoptará “credenciales de contenido”, una marca de agua digital que indica cómo se crearon y editaron las imágenes.

La tecnología de credenciales de contenido fue impulsada por Adobe, pero está abierta a otras empresas y ya ha sido adoptada por empresas como OpenAI, creadora de ChatGPT.

Los investigadores han expresado su preocupación por la posibilidad de que los contenidos generados por IA se usen como desinformación en un intento de interferir en las elecciones estadounidenses de noviembre próximo.

TikTok ya formaba parte de un grupo de 20 empresas tecnológicas que firmaron un acuerdo a principios de año comprometiéndose a combatir la desinformación.

YouTube, propiedad de Google  y Meta Platforms, dueña de Instagram y Facebook, también han dicho que tienen previsto usar las credenciales de contenido.

Para que el sistema funcione, tanto el fabricante de la herramienta de IA generativa utilizada para crear contenidos como la plataforma utilizada para distribuirlos deben estar de acuerdo en usar el estándar del sector.

Si una persona utiliza la herramienta Dalle de OpenAI para generar una imagen, por ejemplo, OpenAI adjunta una marca de agua a la imagen resultante. Si esa imagen marcada se sube a TikTok, se etiquetará automáticamente como generada por IA.

TikTok ya etiqueta el contenido generado por IA con herramientas dentro de la aplicación, pero la última medida aplicaría una etiqueta al contenido generado fuera del servicio.

“También tenemos políticas que prohíben la IA realista que no esté etiquetada, así que si aparecen (estos contenidos) en la plataforma, los eliminaremos por violar nuestras directrices comunitarias”, dijo Adam Presser, jefe de operaciones y confianza y seguridad de TikTok.

Elon Musk presentó una demanda contra OpenAI, creador de ChatGPT-,y sus cofundadores Sam Altman y Greg Brockman, al acusarlos de haber abandonado la misión original de la sociedad.

Según documentos presentados en un tribunal de San Francisco, Musk acusa a OpenAI, que se alió con Microsoft, de haber incumplido el acuerdo inicial para el desarrollo de OpenAI, que debía seguir siendo una organización sin fines de lucro que trabajara por el bien de la humanidad.

Musk cofundó OpenAI en 2015 con Sam Altman, entre otros, con estatus de organización sin fines de lucro que trabaja en programas de inteligencia artificial de “código abierto” (accesible, editable, utilizable y redistribuible para todos), para evitar que Google dominara esta importante tecnología.

El multimillorio, dueño de X (antes Twitter) dejó OpenAI en 2018 y ahora es uno de los que más critican la empresa. Musk fundó en 2023 su propia compañía de inteligencia artificial, Xai.

OpenAI no hizo público el código de su último modelo de lenguaje GPT 4, “rompiendo el contrato original”, alegan los abogados de Musk en la denuncia presentada.

“A diferencia del acuerdo inicial, los demandados optaron por utilizar GPT 4 no por el bien de la humanidad, sino como tecnología exclusiva para maximizar los beneficios de la empresa más grande del mundo”, es decir, Microsoft.

Recordemos que Microsoft prometió 13,000 millones de dólares en inversiones a OpenAI. Desde entonces, Altman reorientó OpenAI hacia una trayectoria lucrativa, por lo que fue despedido por una parte de la junta en noviembre.

Sin embargo, con el apoyo de Microsoft, el jefe de OpenAI fue reincorporado cinco días después.

Así, Elon Musk reclama que GPT 4 sea excluido de la licencia concedida por OpenAI a Microsoft.

“¡Gracias por los deseos de cumpleaños! Sin embargo, es importante señalar que, como programa informático, no tengo sentimientos ni conciencia, así que no experimento emociones como los humanos”, fue la respuesta que de ChatGPT, el chatbot viral de OpenAI, al ser preguntado sobre cómo se sentía en su primer cumpleaños.

A pesar de todo, sus respuestas, tan extrañamente humanas, causaron sensación en todo el mundo el año pasado.

Y aunque ha respondido a millones de peticiones de usuarios, su creciente influencia ha suscitado dudas sobre el papel de la inteligencia artificial (IA) en la sociedad.

Su empresa matriz, OpenAI, se vio sacudida este mes por una tumultuosa batalla en el directorio que supuso la repentina destitución y regreso de su presidente ejecutivo, Sam Altman.

ChatGPT se convirtió en la aplicación de software de mayor crecimiento del mundo a los seis meses de su lanzamiento. También alentó el lanzamiento de chatbots rivales de Microsoft, Alphabet y un grupo de empresas emergentes que aprovecharon el revuelo para conseguir miles de millones en financiamiento.

Entre los competidores de ChatGPT se encuentran Bard, Claude de Anthropic, Character.AI y CoPilot de Microsoft, que han experimentado un aumento de usuarios. ChatGPT, sin embargo, acapara la mayor parte del mercado.

Seis meses después del lanzamiento del sitio web de ChatGPT, OpenAI introdujo la aplicación de chatbot en iOS de Apple en mayo y posteriormente en Android en julio. Las descargas de la aplicación en ambas plataformas han aumentado de forma constante, y OpenAI obtiene ingresos de las compras dentro de la aplicación, según la empresa de análisis de datos Apptopia.

El lanzamiento de ChatGPT también provocó inversiones gigantescas de las principales empresas tecnológicas. Microsoft y Alphabet han destinado miles de millones a mejorar sus capacidades de computación en nube y asumir más cargas de trabajo de IA a medida que las empresas adoptan este tipo de herramientas.

Sin embargo, no todo es miel sobre hojuelas. OpenAI y su patrocinador Microsoft han sido objeto de varias demandas interpuestas por grupos de propietarios de derechos de autor, entre ellos los escritores John Grisham, George R.R. Martin y Jonathan Franzen, por el supuesto uso indebido de sus obras para entrenar sistemas de IA. Las empresas han rechazado las acusaciones.

“Tengo mucha empatía por el sentimiento de las personas, cualquiera sea su sentimiento” en relación a ChatGPT, dijo Sam Altman, creador de OpenAI, que lanzó una revolución tecnológica con esta plataforma de inteligencia artificial (IA) generativa hace un año.

El ejecutivo participó esta semana en una conferencia con directivos de Google y Meta en el marco de la cumbre anual del Foro de Cooperación Asia Pacífico (APEC), que hoy concluye en San Francisco, California.

A pesar de su éxito, ChatGPT y otras interfases capaces de producir textos, imágenes y sonidos a demanda, preocupan por los peligros que pueden acarrear para la democracia, como la desinformación masiva, o el empleo, con profesiones u oficios que podrían verse reemplazados.

“Esperamos realmente que estas herramientas sean adoptadas por los creadores y que les ayuden”, explicó Altman a propósito de los artistas furiosos con las aplicaciones de OpenAI.

Recordemos que artistas, escritores de códigos informáticos y escritores, presentaron este año una demanda contra OpenAI y otros competidores de la start-up californiana, a los que acusan de utilizar sus obras para crear sus interfases sin respetar los derechos de autor, sin consentimiento ni remuneración.

En Hollywood, la huelga histórica de guionistas y actores que acaba de terminar ilustra sus temores con relación a la inteligencia artificial generativa.

Consultado sobre el uso de IA en China, aseguró “no saber gran cosa sobre cómo China utiliza la IA”. “No está entre mis competencias”, sostuvo.

La cumbre del APEC estuvo marcada por la rivalidad entre Estados Unidos y China, enfrascados en una competencia económica y política feroz.

Para muchos en Estados Unidos, el dilema del uso de la IA se relaciona con el modelo de sociedad que se busque. El presidente Joe Biden ha considerado al dirigente chino Xi Jinping como un “dictador”. Y Pekín utiliza la IA con fines de vigilancia de la población, en particular gracias al reconocimiento facial.

La regulación de la IA también se debate en los parlamentos europeo y estadounidense, pero con el enfoque de evitar que sirva para discriminar, manipular o cometer fraudes.

OpenAI y los otros gigantes estadounidenses de la IA piden regulaciones, mientras “no frenen algunos progresos increíbles” que se logran, explicó Altman.

El gobierno estadounidense ha manifestado su preocupación por el papel de la IA durante la campaña electoral de 2024, pues la nueva tecnología facilita la creación de montajes hiperrealistas de imagen y sonido (conocidos como “deepfake”) y de falsos contenidos.

Apple está trabajando en ofertas basadas en Inteligencia Artificial similares a ChatGPT de OpenAI y Bard de Google, informó este miércoles Bloomberg News.

La agencia cita a personas con conocimiento del asunto, lo que hizo subir las acciones de la empresa un 2% en la sesión de hoy.

El fabricante del iPhone ha construido su propio marco, conocido como “Ajax”, para crear grandes modelos de lenguaje (LLM) y también está probando un chatbot que algunos ingenieros llaman “Apple GPT”, según el informe.

Varios equipos están involucrados en el esfuerzo, que está dirigido por John Giannandrea, jefe de aprendizaje automático y la IA de la compañía, y Craig Federighi, máximo ejecutivo de ingeniería de software de Apple, según el informe.

Apple podría hacer importantes anuncios relacionados con la IA el año que viene, de acuerdo al reporte. Las acciones de Microsoft, Nvidia y Alphabet presentaron caídas tras el informe.

El director ejecutivo de OpenAI, Sam Altman, creador de la interfaz ChatGPT, alertó este lunes sobre una “reglamentación estricta” de la Inteligencia Artifical (IA), que amenaza con frenar su desarrollo, aunque reconoció la necesidad de una vigilancia a largo plazo.

Recordemos que Altman defendió el mes pasado, ante una comisión en el Congreso de los Estados Unidos, la intervención de los gobiernos para regular la IA y dijo que era “clave” para “limitar los riesgos” vinculados con esta tecnología.

Sin embargo, este lunes subrayó que su llamado para una mayor regulación no iba dirigido a “los sistemas actuales”.

“Creo que una reglamentación estricta de este sector o intentar ralentizar esta increíble innovación sería un error”, declaró en la Universidad de Tel Aviv, durante una visita que el directivo realiza por Israel.

Altman reconoció que el riesgo de una “superinteligencia” mal usada era real. Es “algo que deberemos tal vez afrontar a lo largo de la próxima década y eso no deja mucho tiempo a las instituciones del mundo para adaptarse”, señaló.

La visita del empresario estadounidense a Israel forma parte de su gira mundial, que inició el mes pasado, y que busca tranquilizar a líderes y autoridades sobre las implicaciones de la IA; Altman aboga por una regulación que no sea demasiado restrictiva para su negocio.

Y es que la Inteligencia Artificial generativa de OpenAI, abierta al gran público a fines de 2022, ha generado una avalancha de temores en cuanto a su posible uso a fines de desinformación, destrucción de empleo y robo de derechos de autor.

En una reunión con el presidente israelí, Isaac Herzog, Altman insistió en la “urgencia” de “encontrar la forma de mitigar estos enormes riesgos”.

El presidente ejecutivo de OpenAI, Sam Altman, comparecerá por primera vez ante una comisión del Senado la próxima semana, justo cuando el Congreso de Estados Unidos debate sobre la mejor manera de regular la inteligencia artificial.

Altman testificará el martes ante la Subcomisión de Privacidad, Tecnología y Derecho del Senado sobre las leyes que podrían ser necesarias para proteger a los estadounidenses a medida que el Gobierno y las empresas empiezan a utilizar la IA en todos los ámbitos.

Será el primer testimonio de Altman ante el Congreso, informó el panel al anunciar la audiencia.

Altman también asistirá a una cena una noche antes que se ofrece para los miembros de la Cámara de Representantes, según la oficina del representante Ted Lieu, coanfitrión del evento.

La semana pasada, Altman participó en una reunión de la Casa Blanca sobre IA en la que se debatió cómo garantizar salvaguardias normativas.

En respuesta a una pregunta sobre si las empresas están de acuerdo en la normativa, Altman dijo a los periodistas: “Sorprendentemente estamos de acuerdo en lo que debe ocurrir”.

También comparecerá Christina Montgomery, directora de privacidad de IBM.

“La inteligencia artificial necesita urgentemente normas y salvaguardias para hacer frente a sus inmensas promesas y escollos”, dijo el senador Richard Blumenthal, presidente del panel. “Esta audiencia inicia el trabajo de nuestro Subcomité para supervisar e iluminar los avanzados algoritmos y la poderosa tecnología de la IA”, remató.

Sam Altman, director ejecutivo y cofundador de OpenAI, confirmó que su empresa no desarrollará “por algún tiempo” GPT-5, el presunto sucesor de su chatbot con inteligencia artificial (IA) GPT-4, después de que un grupo de empresarios del sector tecnológico solicitaron en una carta que se suspendan durante seis meses los sistemas de IA “más poderosos que GPT-4”.

Altman dijo que a la carta que firmaron los empresarios “le faltaban la mayoría de los matices técnicos sobre dónde necesitamos la pausa”.

La carta fue firmada por Musk, el cofundador de Apple Steve Wozniak y los investigadores estadounidenses Yoshua Bengio y Stuart Russel, entre muchos otros.

Durante una conferencia celebrada en el Instituto de Tecnología de Massachusetts (MIT), a la que asistió por videoconferencia, Altman aseguró que su compañía no está trabajando en el desarrollo de un GPT-5 por lo que la misiva, que ya ha sido respaldada por más de 25,000 personas, le pareció un poco “ridícula”.

Sin embargo, coincidió con la idea de que OpenAI tiene que “moverse con precaución”, ya que hay “un rigor cada vez mayor en cuestiones de seguridad” y eso es “realmente importante”.

“También estoy de acuerdo en que, a medida que las capacidades se vuelven más y más serias, el listón de seguridad debe aumentar”, dijo Altman en el evento.

T es que recordemos que OpenAI creó ChatGPT y luego GPT-4, un chatbot de IA que puede generar respuestas similares a las de un humano en cuestión de segundos, y Microsoft utiliza su tecnología en su chatbot Bing.

No obstante, el hecho de que OpenAI no esté trabajando en GPT-5 no significa que no esté expandiendo las capacidades de GPT-4.

Para los más preocupados por el rápido crecimiento de estas tecnologías con IA, el anuncio de Altman de que OpenAI no está desarrollando GPT-5 no es de consuelo, ya que la empresa está ampliando el potencial de GPT-4 conectándolo a internet, por ejemplo, y, además, podría lanzar un GPT-4.5, como hizo con GPT-3.5.

OpenAI no es la única empresa que está trabajando en este tipo de herramientas.

Una de las organizaciones que ayer suscribieron un manifiesto para pedir la suspensión por seis meses de los experimentos con inteligencia artificial (IA) muy avanzada, denunció en Estados Unidos a la tecnológica OpenAI, desarrolladora del ChatGPT, por considerar que la tecnología que utiliza, denominada GPT-4, viola la ley de protección de los consumidores.

El Center for AI and Digital Policy (CAIDP) presentó una demanda contra OpenAI ante la Comisión de Comercio Federal (FTC) de Estados Unidos en la que alega que el producto GPT-4 es “sesgado, engañoso y supone un riesgo para la privacidad y la seguridad pública”.

“La FTC tiene la clara responsabilidad de investigar y prohibir las prácticas comerciales injustas y engañosas. Creemos que la FTC debe examinar de cerca OpenAI y GPT-4”, dijo el presidente de CAIDP Marc Rotenberg.

Según Rotenberg, OpenAI no está cumpliendo con las prácticas propuestas por la FTC como que la garantía por parte de las compañías de inteligencia artificial de “la solidez empírica de los datos y de los modelos” empleados, así como su transparencia.

La demanda insiste en que esta tecnología no cuenta con las suficientes salvaguardas para limitar la parcialidad y el engaño.

Rotengberg fue uno de los firmantes de una carta abierta en la que solicitaron que se suspendan durante seis meses los experimentos con inteligencia artificial muy potente (superior a GPT-4) porque consideran que “pueden plantear profundos riesgos para la sociedad y la humanidad”.

“La sociedad ha hecho una pausa en otras tecnologías con efectos potencialmente catastróficos en la sociedad. Podemos hacerlo aquí. Disfrutemos de una larga pausa veraniega de la IA y no nos apresuremos a caer sin estar preparados”, decía la carta publicada por el organismo sin ánimo de lucro Future of Life Institute.

Entre los firmantes también estaban el director ejecutivo de Tesla, Elon Musk, o el cofundador de Apple Steve Wozniak entre otros que también piden la intervención de los gobiernos, en caso de que estas empresas no respondan a esta solicitud.

“La IA avanzada podría representar un cambio profundo en la historia de la vida en la tierra, y debería planificarse y gestionarse con el cuidado y los recursos correspondientes”, aseguraba la misiva que criticaba, además, “que los laboratorios de IA se han enzarzado en una carrera fuera de control para desarrollar y desplegar mentes digitales cada vez más poderosas”.

GPT, siglas en inglés del término Transformador Generativo Preentrenado, es un tipo de modelo de aprendizaje artificial que se utiliza para generar lenguaje similar al humano. El GPT-4 es mucho más avanzado que los modelos similares anteriores.