Tag

inteligencia artificial

Browsing

Uno de los mayores expertos en Inteligencia Artificial (IA), Gary Marcus, profesor emérito de psicología y ciencia neuronal de la Universidad de Nueva York, cree que va a ser necesario aplicar marcas de agua en las imágenes generadas por robots, y algo parecido también en los textos, para diferenciarlos así de los generados por humanos y evitar que se propague la desinformación.

En un artículo reproducido en el New York Times, Marcus, autor de dos libros dedicados a la IA, trata de evitar el tono catastrofista: “No soy de los que piensa que el planeta entero va a ser dominado por los robots”, pero admite que le preocupa “lo que los actores negativos pueden hacer con estas cosas, porque nadie los controla”.

“¿Los beneficios superan a los costos? -se pregunta- La respuesta más honesta es que no lo sabemos. Algunos quisiéramos que esto se ralentice porque vemos sus costos a diario, pero eso no significa que no haya beneficios”, matiza, especialmente en los ámbitos técnicos, y advierte de paso contra quienes abogan por el ChatGPT como medio de ganar una especie de carrera con China.

Como remedio inmediato, Marcus sugiere alguna especie de gobernanza internacional sobre el mundo de la IA: “Lo que necesitamos es algo global, neutral, sin ánimo de lucro, con gobiernos y empresas participando en ello. Tenemos que coordinar esfuerzos sobre cómo crear reglas (…) Necesitamos crear un código sobre lo que es aceptable y quién es el responsable”.

Este organismo supranacional respondería a dudas razonables que ya se plantean, y pone los siguientes ejemplos: ¿Qué pasa si los chatbots mienten mucho?, ¿se puede permitir?, ¿quién será el responsable?; si la desinformación se expande ampliamente, ¿qué hacer? ¿quién asume los costos? ¿queremos que las empresas pongan dinero para crear herramientas que detecten la desinformación que ellas mismas crean?”.

Si no se avanza en una regulación rápida de la IA y los chatbots, Marcus pone un ejemplo de lo que eso puede significar en las próximas elecciones presidenciales en Estados Unidos: “Si no hacemos nada, nadie va a creerse nada, y todas aquellas cosas que no quieran creer, lo van a rechazar atribuyéndolas a la IA. Con lo que los problemas sobre polarización y el discurso público no harán sino empeorar”.

Las advertencias de Marcus se suman a las de otros expertos que en los últimos días están alertando sobre el avance espectacular de la IA, hasta ahora prácticamente sin control.

Este lunes, en una entrevista con el mismo diario, el británico Geoffrey Hinton, uno de los grandes pioneros en el desarrollo de la IA, explicó que ha dejado su trabajo en Google para poder advertir con mayor libertad de los peligros que plantean estas nuevas tecnologías.

En su opinión, se deberían frenar los trabajos en este ámbito hasta que se entienda bien si será posible controlar la IA, una idea en línea con otros llamamientos públicos de personalidades del sector tecnológico que han pedido suspender temporalmente los experimentos.

En Broojula, Guillermo Pérezbolde, autor del libro Metaverso, el negocio de la realidad virtual; fundador y director general de la agencia Mente Digital, nos habla sobre la decisión de Geoffrey Hinton y las críticas a la inteligencia artificial.

Estados Unidos comenzará a usar la inteligencia artificial (IA) para combatir el tráfico de fentanilo, señaló este viernes el secretario de Seguridad Nacional, Alejandro Mayorkas.

El funcionario anunció hoy la creación de un grupo de trabajo dentro de su departamento para explorar cómo se puede usar esta tecnología para aumentar la seguridad en el país, incluyendo sus usos para detener el tráfico de fentanilo.

“Exploraremos los diferentes usos de esta tecnología para detectar mejor los cargamentos de fentanilo, identificar e incautar el flujo de precursores químicos y localizar los núcleos de las organizaciones criminales para desmantelarlas”, detalló en una conferencia en la organización Council of Foreign Relations, con sede en Washington.

Están interesados además en explorar cómo se puede usar la IA para contrarrestar los ataques a la ciberseguridad por parte de agentes extranjeros, entre los que mencionó a China y Rusia.

“Debemos abordar las muchas formas en que la inteligencia artificial alterará drásticamente el panorama de amenazas y aumentar las herramientas que poseemos para tener éxito frente a estas amenazas”, subrayó Mayorkas.

Recordemos que el consumo de fentanilo en Estados Unidos, una sustancia que dejó más de 100,000 muertos por sobredosis el año pasado en el país, ha llevado al gobierno de Joe Biden a tomar medidas para frenar la entrada de esa sustancia.

Entre ellas está el intento de reforzar la colaboración con México, a quien Estados Unidos señala como uno de los principales países por los que la droga entra a su territorio.

Sin embargo, el presidente Andrés Manuel López Obrador(AMLO) ha respondido que la crisis de sobredosis de opiáceos es un tema de salud pública que Estados Unidos debe resolver e incluso ha negado que en el país se fabrique fentanilo, argumentando que esta sustancia llega a Norteamérica desde Asia.

Sam Altman, director ejecutivo y cofundador de OpenAI, confirmó que su empresa no desarrollará “por algún tiempo” GPT-5, el presunto sucesor de su chatbot con inteligencia artificial (IA) GPT-4, después de que un grupo de empresarios del sector tecnológico solicitaron en una carta que se suspendan durante seis meses los sistemas de IA “más poderosos que GPT-4”.

Altman dijo que a la carta que firmaron los empresarios “le faltaban la mayoría de los matices técnicos sobre dónde necesitamos la pausa”.

La carta fue firmada por Musk, el cofundador de Apple Steve Wozniak y los investigadores estadounidenses Yoshua Bengio y Stuart Russel, entre muchos otros.

Durante una conferencia celebrada en el Instituto de Tecnología de Massachusetts (MIT), a la que asistió por videoconferencia, Altman aseguró que su compañía no está trabajando en el desarrollo de un GPT-5 por lo que la misiva, que ya ha sido respaldada por más de 25,000 personas, le pareció un poco “ridícula”.

Sin embargo, coincidió con la idea de que OpenAI tiene que “moverse con precaución”, ya que hay “un rigor cada vez mayor en cuestiones de seguridad” y eso es “realmente importante”.

“También estoy de acuerdo en que, a medida que las capacidades se vuelven más y más serias, el listón de seguridad debe aumentar”, dijo Altman en el evento.

T es que recordemos que OpenAI creó ChatGPT y luego GPT-4, un chatbot de IA que puede generar respuestas similares a las de un humano en cuestión de segundos, y Microsoft utiliza su tecnología en su chatbot Bing.

No obstante, el hecho de que OpenAI no esté trabajando en GPT-5 no significa que no esté expandiendo las capacidades de GPT-4.

Para los más preocupados por el rápido crecimiento de estas tecnologías con IA, el anuncio de Altman de que OpenAI no está desarrollando GPT-5 no es de consuelo, ya que la empresa está ampliando el potencial de GPT-4 conectándolo a internet, por ejemplo, y, además, podría lanzar un GPT-4.5, como hizo con GPT-3.5.

OpenAI no es la única empresa que está trabajando en este tipo de herramientas.

Instagram anunció este jueves que comenzó a probar una herramienta basada en inteligencia artificial (IA) para confirmar la edad de sus usuarios en Estados Unidos.

Legisladores de todo el mundo han exigido que el servicio de redes sociales, propiedad del gigante tecnológico estadounidense Meta, proteja a los jóvenes de contenidos para adultos e invasiones de su privacidad.

Según las empresas de tecnología, ese tema no se resuelve fácilmente, pero podría abordarse con cambios tecnológicos más amplios, como la vinculación de las fechas de nacimiento al teléfono celular de una persona.

Meta anunció la prueba de nuevas herramientas de verificación para cualquier persona que intente cambiar su edad de menor de 18 a mayor de esa edad en la plataforma, incluida la grabación de un video selfie o pedir a sus amigos que verifiquen su edad.

“Estamos probando esto para asegurarnos de que los adolescentes y adultos tengan la experiencia adecuada para su grupo de edad”, dijo Meta.

Las selfies en video serán enviados a la firma británica Yoti, que ha desarrollado una herramienta de inteligencia artificial que, según dice, puede calcular la edad de los menores de 20 años con un margen de 1.5 años. Sin embargo, los propios datos de Yoti sugieren que su herramienta no es tan eficaz en la verificación de la edad de mujeres y niñas, y de personas con piel oscura.

Tanto Yoti como Meta dijeron que las selfies se eliminarán después de la verificación.

En 2021, el jefe de Instagram, Adam Mosseri, dijo a los legisladores estadounidenses que sentía que no era el trabajo de Instagram verificar la edad de los usuarios. “Creo que sería mucho más efectivo verificar las edades a nivel del dispositivo”, afirmó.

Recordemos que Instagram se vio sacudido el año pasado por revelaciones de la denunciante Frances Haugen según la cual los ejecutivos de la firma sabían que la plataforma podría dañar la salud mental de los jóvenes, en particular de las adolescentes. Desde entonces, ha implementado varias funciones destinadas a proteger a los usuarios más jóvenes.

Luego de salir del gobierno federal, el ex colaborador de Enrique Peña Nieto, Luis Videgaray, se estaría incorporando al Instituto Tecnológico de Massachusetts (MIT).

Así lo reveló este jueves Bloomberg, quien cita a cuatro fuentes que pidieron permanecer en el anonimato, ya que los planes aún no son públicos.

De acuerdo a las fuentes consultadas, el ex canciller liderará un programa sobre la geopolítica de la inteligencia artificial para el año académico que comienza el 4 de septiembre próximo.

Más tarde, El Financiero indicó que Videgaray confirmó su incorporación a la institución académica.

Con esto, Videgaray regresará a la institución en el que obtuvo su doctorado en Economía hace dos décadas con una tesis sobre cómo los cambios en el precio del petróleo han impactado a los gobiernos que dependen del crudo.

Videgaray ha sido colaborador del ex presidente de México desde su encargo como gobernador del Estado de México, donde fungió como secretario de finanzas en 2005.

Posteriormente, Luis Videgaray dirigió la campaña presidencial de Peña Nieto, y se integró al gobierno federal como secretario de Hacienda durante la primera mitad de la administración.

Videgaray renunció al gobierno luego de haber organizado la visita del entonces candidato presidencial Donald Trump a nuestro país. Más adelante, regresó a la administración pública como canciller, teniendo entre sus principales responsabilidades, la renegociación del Tratado de Libre Comercio de América del Norte (TLCAN).