Compartir este artículo

Edward Snowden: Los investigadores deberían entrenar a la IA para que sea "mejor que nosotros"

El ex denunciante de la NSA compartió sus esperanzas de que la inteligencia de la IA pudiera superar a la de los humanos y, en última instancia, beneficiar a la humanidad, a pesar de los temores de que la Tecnología pudiera ser cooptada por malos actores.

AUSTIN, Texas — Los modelos de inteligencia artificial (IA) pronto podrían superar las capacidades de los humanos, pero solo si dejamos de enseñarles a pensar como nosotros y les permitimos "ser mejores que nosotros", dijo el presidente de la Fundación para la Libertad de Prensa, Edward Snowden, enConsenso 2023.

El ex denunciante de la Agencia de Seguridad Nacional, quien participó virtualmente en la conferencia desde Rusia, compartió su visión, cautelosamente optimista, sobre el futuro de la IA, la Tecnología que se popularizó tras el lanzamiento de ChatGPT de OpenAI el otoño pasado. Si bien Snowden en ocasiones coincidió con las advertencias de algunos expertos sobre que las tecnologías de IA podrían potenciar a los ciberdelincuentes, también consideró casos de uso positivos para esta Tecnología emergente.

CONTINÚA MÁS ABAJO
No te pierdas otra historia.Suscríbete al boletín de State of Crypto hoy. Ver Todos Los Boletines

Snowden argumentó que los modelos de IA podrían obstruir la vigilancia gubernamental en lugar de impulsar programas de inteligencia invasivos.

"Tal vez podrían dejar de espiar.en el público y empezar a espiarpara "El público", dijo Snowden. "Eso sería un beneficio neto".

Lea la cobertura completa de Consensus 2023 aquí.

Sin embargo, también advirtió que el lanzamiento de ChatGPT y otros modelos de inteligencia artificial cada vez más sofisticados podrían impulsar iniciativas de las grandes empresas tecnológicas y los gobiernos para invadir la Privacidad de los usuarios.

Para evitar que actores maliciosos se apropien de las tecnologías de IA, la gente debe luchar para que los modelos de IA abiertos permanezcan abiertos, dijo Snowden a CoinDesk.

“La gente va a levantar la bandera roja del ‘comunismo de software’, donde debemos declarar que los modelos deben ser abiertos”, dijo Snowden.

Dirigió sus críticas específicamente a los modelos de IA emergentes que se están volviendo cada vez menos abiertos, y mencionó específicamente a OpenAI.

Es una broma de mal gusto, ¿verdad? Se negaron a dar acceso público a sus datos comerciales, sus modelos, las ponderaciones, etc., pero son líderes en el sector. Están siendo recompensados. Están siendo recompensados por su comportamiento antisocial.

El uso de la Tecnología , argumentó, se reduce a cómo los investigadores entrenan los motores de IA. Gran parte del entrenamiento de IA actual implica suministrar a la IA grandes cantidades de contenido en línea, incluyendo comentarios en redes sociales, lo cual, según Snowden, no es ideal.

"Están entrenando [modelos de IA] en hilos de Reddit", dijo Snowden. "Es como el equivalente en internet a los comentarios de YouTube. Pero se busca crear algo decente, bueno, creativo y útil".

Los métodos de entrenamiento actuales, también observó, giran en torno a enseñar a los modelos de IA a “pensar como nosotros”, lo que podría limitar el potencial de la tecnología para mejorar la humanidad.

“Al igual que con los niños, no necesitamos que las máquinas sean como nosotros”, dijo Snowden. “Necesitamos que sean mejores que nosotros. Y si no lo son, hicimos un trabajo pésimo”.

Sigue leyendo: ¿Cuál es la relación entre las Cripto y la IA? ¿Existe alguna?

Elizabeth Napolitano

Elizabeth Napolitano fue periodista de datos en CoinDesk, donde informó sobre temas como Finanzas descentralizadas, plataformas centralizadas de intercambio de Criptomonedas , altcoins y Web3. Ha cubierto Tecnología y negocios para NBC News y CBS News. En 2022, recibió un premio nacional ACP por sus reportajes de noticias de última hora.

Elizabeth Napolitano