Tag

inteligencia artificial

Browsing

La bancada del PAN en la Cámara de Diputados presentó una iniciativa para expedir la Ley de Regulación Ética de la Inteligencia Artificial y la Robótica, cuyo objeto, indicaron los legisladores, es regular y normar el uso de estas tecnologías con fines gubernamentales, económicos, comerciales, administrativos, comunicacionales y financieros, con apego a la ética y al derecho.

La propuesta, enviada a la Comisión de Ciencia, Tecnología e Innovación, con opinión de la de Presupuesto y Cuenta Pública, busca establecer lineamientos de políticas públicas en México para la regulación ética del uso de la Inteligencia Artificial (IA) y la Robótica dentro del territorio nacional.

La iniciativa, firmada por las diputadas y los diputados del PAN, plantea fomentar la creación de Normas Oficiales Mexicanas, basadas en principios éticos, para el buen uso de la IA y la Robótica en beneficio de la sociedad mexicana, siempre respetando los derechos humanos, la paridad entre los géneros, sin discriminación alguna por raza, origen étnico, religión, clase social o posición económica.

Busca crear el Consejo Mexicano de Ética para la Inteligencia Artificial y la Robótica como organismo público descentralizado; además, la Red Nacional de Estadística de Uso y Monitoreo de la Inteligencia Artificial y la Robótica y vincula a los organismos autónomos con la regulación de su uso en territorio nacional, y estipula que el Instituto Nacional de Estadística y Geografía será el centro generador de información sobre el uso de la IA en el país.

En la exposición de motivos, señala que es necesario comenzar a normar esta materia, pues en la actualidad las leyes no abordan a profundidad la regulación de la IA, concepto que gana terreno en todo el mundo, ante lo cual el reto es crear un marco legal y ético para su desarrollo, implementación y utilización.

Considera que la IA implica el uso de algoritmos y modelos matemáticos que procesan grandes cantidades de datos para tomar decisiones; realiza tareas que antes eran reservada a las personas, y su crecimiento “obliga a estar atentos para prevenir y analizar las posibles desventajas directas o indirectas que pueda generar su proliferación”.

La IA, precisa, presenta un acelerado y claro crecimiento en nuestro país sin regulación legal, dejando un vacío entre las leyes y su implementación.

El diputado Ignacio Loyola Vera del PAN recordó que existe una preocupación internacional por la creación de normas y esquemas legales que proporcionen un marco regulatorio prudente y pertinente pues, considerando que es un sistema organizado para imitar la inteligencia humana y concentrar información, “su uso perverso no queda exento”, por lo que su posible utilización facciosa y manipulación constituyen un reto que se debe enfrentar.

La IA no es una moda, apunta la exposición de motivos de la iniciativa, por lo que estima oportuno regularla desde ahora y no esperar que su utilización sea un comportamiento generalizado; “será demasiado tarde”.

Sam Altman, jefe de OpenAI y creador de ChatGPT, está recorriendo el mundo para tranquilizar sobre los riesgos de la Inteligencia Artificial (AI) y advertir acerca de proyectos de regulación quizá demasiado restrictivos.

Dieciséis ciudades, cinco continentes, reuniones cara a cara con jefes de Estado, conferencias en universidades e incluso una aparición en la reunión que el grupo Bilderberg, el discreto club de dirigentes políticos y económicos mundiales.

Ese es el impresionante cartel del “OpenAI Tour”, como lo denominó la empresa californiana.

La gira ilustra el estatus de gurú mundial de la Inteligencia Artificial que se ha ganado Sam Altman, de 38 años, a raíz del fulgurante éxito de su robot conversacional ChatGPT.

Pero ahora debe responder a los temores que éste provoca: desinformación, manipulación de elecciones, destrucción masiva de empleos, robo a creadores e, incluso, amenaza global para la humanidad.

Europa y Estados Unidos están estudiando regular el sector, luego de que numerosas personalidades pidieran en marzo pasado una pausa en la investigación, mientras Italia suspendió ChatGPT tres semanas por uso no consentido de datos personales.

El sábado, los países del G7 decidieron crear un grupo de trabajo y, en Bruselas, el comisario europeo Thierry Breton sugirió poner en marcha rápidamente un pacto sobre la Inteligencia Artificial.

Sam Altman explicó en Twitter que preveía reunirse con usuarios y reguladores durante su gira.

Su campaña empezó con una comparecencia ante los senadores estadounidenses el 16 de mayo, donde causó sorpresa al exclamar: ¡regúlenme!”. Tomando la delantera, declaró que lo que más miedo le da es que la AI pueda causar “importantes daños al mundo” y propuso crear una agencia mundial de regulación.

Sin embargo, también consideró que se podrían crear numerosos empleos y recalcó los riesgos que podría entrañar una regulación demasiado estricta pues, “si la industria estadounidense se ralentiza, China o cualquier otro podrán avanzar más rápido”.

Al día siguiente, el directivo viajó a Rio de Janeiro, y luego fue a Lagos (Nigeria) y a Lisboa. Esta semana, visitó Madrid, Londres, París, Varsovia y Múnich. Sus próximas paradas serán Tel Aviv, Dubái, Nueva Delhi, Singapur, Yakarta, Seúl, Tokio y Melbourne.

Por las ciudades por donde pasa, Altman repite su discurso, que mezcla optimismo y advertencia, para tratar de convencer de que la AI no escapará al control humano.

En París, Varsovia y Madrid fue recibido como si de un jefe de Estado se tratara, reuniéndose respectivamente con el presidente francés Emmanuel Macron y con los jefes de gobierno polaco y español Mateusz Morawiecki y Pedro Sánchez, todos ellos deseosos de aprovechar esta oportunidad económica, aunque recordando la necesidad de establecer un control.

En Rio, en el Museo del Mañana, defendió la necesidad de regular, pero insistió en que espera que ChatGPT dé lugar a “un avance científico real” y que “mejore la vida de la gente”. De manos del alcalde de Rio de Janeiro, Eduardo Paes, que se mostró entusiasta, recibió simbólicamente las llaves de al ciudad.

En Londres, sin embargo, su llegada generó menos consenso. En el University College se formó una fila de alumnos deseosos de escucharle, pero también una protesta con un puñado de participantes. “No deberíamos permitir que multimillonarios de Silicon Valley con complejo de mesías decidan lo que queremos”, declaró un estudiante.

En tanto, Sam Altman advirtió que OpenAI podría “dejar de operar” en la Unión Europea si el futuro reglamento le imponía demasiados límites.

El director ejecutivo y cofundador de Open AI, desarrolladora del programa de generación de texto ChatGPT, Sam Altman, pidió este martes al Congreso de Estados Unidos que regule el desarrollo y los usos de la inteligencia artificial (IA).

En una comparecencia ante un subcomité del Senado, Altman hizo un listado de las aplicaciones beneficiosas de la tecnología, desde la medicina hasta la lucha contra la crisis climática, y confió en que la IA puede ser utilizada para el beneficio de la humanidad.

Sin embargo, matizó que es necesaria la intervención de los gobiernos del mundo para asegurar que estas herramientas se desarrollan de manera que protejan y respeten los derechos y las libertades de los ciudadanos.

“Creemos que los beneficios de las herramientas que hemos desarrollado hasta ahora superan ampliamente los riesgos”, defendió el empresario durante la audiencia.

El testimonio de Altman se produce en medio de la preocupación por parte de las autoridades estadounidenses por la posibilidad de que el rápido avance de las tecnologías de IA tenga efectos inesperados sobre la sociedad.

Los legisladores citaron riesgos como la pérdida de empleos o el uso de herramientas de creación de contenidos para generar información falsa por parte de actores extranjeros.

Para ilustrar sus preocupaciones, el senador Richard Blumenthal, presidente del subcomité de Privacidad, Tecnología y la Ley e impulsor de la audiencia, emitió una grabación realizada con inteligencia artificial que había sido escrita por ChatGPT, imitando el estilo y los principales focos de interés del congresista.

Altman admitió que probablemente la IA afectará al mercado laboral, pero se mostró optimista en que a la larga, la tecnología generará más empleos nuevos de los que destruirá. “Somos tremendamente creativos”, confió el empresario.

Altman también se mostró abierto a la sugerencia de Blumenthal de que el gobierno desarrolle laboratorios independientes para comprobar la fiabilidad de los modelos de inteligencia artificial, y que les darían una nota similar a la calificación nutricional de los alimentos.

El responsable de OpenAI admitió que sus productos todavía cometen errores, pero que con el tiempo se volverán más y más fiables.

Otro de los senadores impulsores de la audiencia, el republicano Josh Hawley, aseguró que la inteligencia artificial es “una de las innovaciones más significativas de la historia”, pero que todavía no está claro si será más parecida a la invención de la imprenta o a la de la bomba atómica.

Los congresistas defendieron que si bien es cierto que se necesita regulación pública, las empresas de IA como OpenAI no tienen que esperar al Congreso para instaurar mecanismos que permitan controlar el desarrollo de la tecnología para mitigar los daños.

El presidente ejecutivo de OpenAI, Sam Altman, comparecerá por primera vez ante una comisión del Senado la próxima semana, justo cuando el Congreso de Estados Unidos debate sobre la mejor manera de regular la inteligencia artificial.

Altman testificará el martes ante la Subcomisión de Privacidad, Tecnología y Derecho del Senado sobre las leyes que podrían ser necesarias para proteger a los estadounidenses a medida que el Gobierno y las empresas empiezan a utilizar la IA en todos los ámbitos.

Será el primer testimonio de Altman ante el Congreso, informó el panel al anunciar la audiencia.

Altman también asistirá a una cena una noche antes que se ofrece para los miembros de la Cámara de Representantes, según la oficina del representante Ted Lieu, coanfitrión del evento.

La semana pasada, Altman participó en una reunión de la Casa Blanca sobre IA en la que se debatió cómo garantizar salvaguardias normativas.

En respuesta a una pregunta sobre si las empresas están de acuerdo en la normativa, Altman dijo a los periodistas: “Sorprendentemente estamos de acuerdo en lo que debe ocurrir”.

También comparecerá Christina Montgomery, directora de privacidad de IBM.

“La inteligencia artificial necesita urgentemente normas y salvaguardias para hacer frente a sus inmensas promesas y escollos”, dijo el senador Richard Blumenthal, presidente del panel. “Esta audiencia inicia el trabajo de nuestro Subcomité para supervisar e iluminar los avanzados algoritmos y la poderosa tecnología de la IA”, remató.

Uno de los mayores expertos en Inteligencia Artificial (IA), Gary Marcus, profesor emérito de psicología y ciencia neuronal de la Universidad de Nueva York, cree que va a ser necesario aplicar marcas de agua en las imágenes generadas por robots, y algo parecido también en los textos, para diferenciarlos así de los generados por humanos y evitar que se propague la desinformación.

En un artículo reproducido en el New York Times, Marcus, autor de dos libros dedicados a la IA, trata de evitar el tono catastrofista: “No soy de los que piensa que el planeta entero va a ser dominado por los robots”, pero admite que le preocupa “lo que los actores negativos pueden hacer con estas cosas, porque nadie los controla”.

“¿Los beneficios superan a los costos? -se pregunta- La respuesta más honesta es que no lo sabemos. Algunos quisiéramos que esto se ralentice porque vemos sus costos a diario, pero eso no significa que no haya beneficios”, matiza, especialmente en los ámbitos técnicos, y advierte de paso contra quienes abogan por el ChatGPT como medio de ganar una especie de carrera con China.

Como remedio inmediato, Marcus sugiere alguna especie de gobernanza internacional sobre el mundo de la IA: “Lo que necesitamos es algo global, neutral, sin ánimo de lucro, con gobiernos y empresas participando en ello. Tenemos que coordinar esfuerzos sobre cómo crear reglas (…) Necesitamos crear un código sobre lo que es aceptable y quién es el responsable”.

Este organismo supranacional respondería a dudas razonables que ya se plantean, y pone los siguientes ejemplos: ¿Qué pasa si los chatbots mienten mucho?, ¿se puede permitir?, ¿quién será el responsable?; si la desinformación se expande ampliamente, ¿qué hacer? ¿quién asume los costos? ¿queremos que las empresas pongan dinero para crear herramientas que detecten la desinformación que ellas mismas crean?”.

Si no se avanza en una regulación rápida de la IA y los chatbots, Marcus pone un ejemplo de lo que eso puede significar en las próximas elecciones presidenciales en Estados Unidos: “Si no hacemos nada, nadie va a creerse nada, y todas aquellas cosas que no quieran creer, lo van a rechazar atribuyéndolas a la IA. Con lo que los problemas sobre polarización y el discurso público no harán sino empeorar”.

Las advertencias de Marcus se suman a las de otros expertos que en los últimos días están alertando sobre el avance espectacular de la IA, hasta ahora prácticamente sin control.

Este lunes, en una entrevista con el mismo diario, el británico Geoffrey Hinton, uno de los grandes pioneros en el desarrollo de la IA, explicó que ha dejado su trabajo en Google para poder advertir con mayor libertad de los peligros que plantean estas nuevas tecnologías.

En su opinión, se deberían frenar los trabajos en este ámbito hasta que se entienda bien si será posible controlar la IA, una idea en línea con otros llamamientos públicos de personalidades del sector tecnológico que han pedido suspender temporalmente los experimentos.

En Broojula, Guillermo Pérezbolde, autor del libro Metaverso, el negocio de la realidad virtual; fundador y director general de la agencia Mente Digital, nos habla sobre la decisión de Geoffrey Hinton y las críticas a la inteligencia artificial.

Estados Unidos comenzará a usar la inteligencia artificial (IA) para combatir el tráfico de fentanilo, señaló este viernes el secretario de Seguridad Nacional, Alejandro Mayorkas.

El funcionario anunció hoy la creación de un grupo de trabajo dentro de su departamento para explorar cómo se puede usar esta tecnología para aumentar la seguridad en el país, incluyendo sus usos para detener el tráfico de fentanilo.

“Exploraremos los diferentes usos de esta tecnología para detectar mejor los cargamentos de fentanilo, identificar e incautar el flujo de precursores químicos y localizar los núcleos de las organizaciones criminales para desmantelarlas”, detalló en una conferencia en la organización Council of Foreign Relations, con sede en Washington.

Están interesados además en explorar cómo se puede usar la IA para contrarrestar los ataques a la ciberseguridad por parte de agentes extranjeros, entre los que mencionó a China y Rusia.

“Debemos abordar las muchas formas en que la inteligencia artificial alterará drásticamente el panorama de amenazas y aumentar las herramientas que poseemos para tener éxito frente a estas amenazas”, subrayó Mayorkas.

Recordemos que el consumo de fentanilo en Estados Unidos, una sustancia que dejó más de 100,000 muertos por sobredosis el año pasado en el país, ha llevado al gobierno de Joe Biden a tomar medidas para frenar la entrada de esa sustancia.

Entre ellas está el intento de reforzar la colaboración con México, a quien Estados Unidos señala como uno de los principales países por los que la droga entra a su territorio.

Sin embargo, el presidente Andrés Manuel López Obrador(AMLO) ha respondido que la crisis de sobredosis de opiáceos es un tema de salud pública que Estados Unidos debe resolver e incluso ha negado que en el país se fabrique fentanilo, argumentando que esta sustancia llega a Norteamérica desde Asia.

Sam Altman, director ejecutivo y cofundador de OpenAI, confirmó que su empresa no desarrollará “por algún tiempo” GPT-5, el presunto sucesor de su chatbot con inteligencia artificial (IA) GPT-4, después de que un grupo de empresarios del sector tecnológico solicitaron en una carta que se suspendan durante seis meses los sistemas de IA “más poderosos que GPT-4”.

Altman dijo que a la carta que firmaron los empresarios “le faltaban la mayoría de los matices técnicos sobre dónde necesitamos la pausa”.

La carta fue firmada por Musk, el cofundador de Apple Steve Wozniak y los investigadores estadounidenses Yoshua Bengio y Stuart Russel, entre muchos otros.

Durante una conferencia celebrada en el Instituto de Tecnología de Massachusetts (MIT), a la que asistió por videoconferencia, Altman aseguró que su compañía no está trabajando en el desarrollo de un GPT-5 por lo que la misiva, que ya ha sido respaldada por más de 25,000 personas, le pareció un poco “ridícula”.

Sin embargo, coincidió con la idea de que OpenAI tiene que “moverse con precaución”, ya que hay “un rigor cada vez mayor en cuestiones de seguridad” y eso es “realmente importante”.

“También estoy de acuerdo en que, a medida que las capacidades se vuelven más y más serias, el listón de seguridad debe aumentar”, dijo Altman en el evento.

T es que recordemos que OpenAI creó ChatGPT y luego GPT-4, un chatbot de IA que puede generar respuestas similares a las de un humano en cuestión de segundos, y Microsoft utiliza su tecnología en su chatbot Bing.

No obstante, el hecho de que OpenAI no esté trabajando en GPT-5 no significa que no esté expandiendo las capacidades de GPT-4.

Para los más preocupados por el rápido crecimiento de estas tecnologías con IA, el anuncio de Altman de que OpenAI no está desarrollando GPT-5 no es de consuelo, ya que la empresa está ampliando el potencial de GPT-4 conectándolo a internet, por ejemplo, y, además, podría lanzar un GPT-4.5, como hizo con GPT-3.5.

OpenAI no es la única empresa que está trabajando en este tipo de herramientas.

Instagram anunció este jueves que comenzó a probar una herramienta basada en inteligencia artificial (IA) para confirmar la edad de sus usuarios en Estados Unidos.

Legisladores de todo el mundo han exigido que el servicio de redes sociales, propiedad del gigante tecnológico estadounidense Meta, proteja a los jóvenes de contenidos para adultos e invasiones de su privacidad.

Según las empresas de tecnología, ese tema no se resuelve fácilmente, pero podría abordarse con cambios tecnológicos más amplios, como la vinculación de las fechas de nacimiento al teléfono celular de una persona.

Meta anunció la prueba de nuevas herramientas de verificación para cualquier persona que intente cambiar su edad de menor de 18 a mayor de esa edad en la plataforma, incluida la grabación de un video selfie o pedir a sus amigos que verifiquen su edad.

“Estamos probando esto para asegurarnos de que los adolescentes y adultos tengan la experiencia adecuada para su grupo de edad”, dijo Meta.

Las selfies en video serán enviados a la firma británica Yoti, que ha desarrollado una herramienta de inteligencia artificial que, según dice, puede calcular la edad de los menores de 20 años con un margen de 1.5 años. Sin embargo, los propios datos de Yoti sugieren que su herramienta no es tan eficaz en la verificación de la edad de mujeres y niñas, y de personas con piel oscura.

Tanto Yoti como Meta dijeron que las selfies se eliminarán después de la verificación.

En 2021, el jefe de Instagram, Adam Mosseri, dijo a los legisladores estadounidenses que sentía que no era el trabajo de Instagram verificar la edad de los usuarios. “Creo que sería mucho más efectivo verificar las edades a nivel del dispositivo”, afirmó.

Recordemos que Instagram se vio sacudido el año pasado por revelaciones de la denunciante Frances Haugen según la cual los ejecutivos de la firma sabían que la plataforma podría dañar la salud mental de los jóvenes, en particular de las adolescentes. Desde entonces, ha implementado varias funciones destinadas a proteger a los usuarios más jóvenes.

Luego de salir del gobierno federal, el ex colaborador de Enrique Peña Nieto, Luis Videgaray, se estaría incorporando al Instituto Tecnológico de Massachusetts (MIT).

Así lo reveló este jueves Bloomberg, quien cita a cuatro fuentes que pidieron permanecer en el anonimato, ya que los planes aún no son públicos.

De acuerdo a las fuentes consultadas, el ex canciller liderará un programa sobre la geopolítica de la inteligencia artificial para el año académico que comienza el 4 de septiembre próximo.

Más tarde, El Financiero indicó que Videgaray confirmó su incorporación a la institución académica.

Con esto, Videgaray regresará a la institución en el que obtuvo su doctorado en Economía hace dos décadas con una tesis sobre cómo los cambios en el precio del petróleo han impactado a los gobiernos que dependen del crudo.

Videgaray ha sido colaborador del ex presidente de México desde su encargo como gobernador del Estado de México, donde fungió como secretario de finanzas en 2005.

Posteriormente, Luis Videgaray dirigió la campaña presidencial de Peña Nieto, y se integró al gobierno federal como secretario de Hacienda durante la primera mitad de la administración.

Videgaray renunció al gobierno luego de haber organizado la visita del entonces candidato presidencial Donald Trump a nuestro país. Más adelante, regresó a la administración pública como canciller, teniendo entre sus principales responsabilidades, la renegociación del Tratado de Libre Comercio de América del Norte (TLCAN).