• Home
  • Contact Us
  • Disclaimer
  • Privacy Policy
  • Terms & Conditions
viernes, diciembre 26, 2025
No Result
View All Result
Corresponsal 360
  • Home
  • Noticias
  • Tecnología
  • Deportes
  • Política
  • Salud
  • Turismo
  • Cultura
  • Home
  • Noticias
  • Tecnología
  • Deportes
  • Política
  • Salud
  • Turismo
  • Cultura
No Result
View All Result
Corresponsal 360
No Result
View All Result
Home Salud

Los sistemas de IA personalizables que cualquiera puede adaptar brindan grandes oportunidades y riesgos aún mayores

by Team
octubre 7, 2025
in Salud
0
Los sistemas de IA personalizables que cualquiera puede adaptar brindan grandes oportunidades y riesgos aún mayores


En los últimos tres meses, se han lanzado varios sistemas de inteligencia artificial de última generación con pesos abiertos, lo que significa que cualquiera puede descargar y personalizar sus parámetros principales. Los ejemplos incluyen modelos de razonamiento como Kimi-K2-Instruct de la empresa de tecnología Moonshot AI en Beijing, GLM-4.5 de Z.ai, también en Beijing, y gpt-oss de la firma californiana OpenAI en San Francisco. Las primeras evaluaciones sugieren que estos son los sistemas de peso abierto más avanzados hasta el momento, acercándose al rendimiento de los principales modelos cerrados de la actualidad.

¿La IA acelerará las revisiones literarias o las descarrilará por completo?

Los sistemas de peso abierto son el alma de la investigación y la innovación en IA. Mejoran la transparencia, facilitan las pruebas a gran escala y fomentan la diversidad y la competencia en el mercado. Pero también plantean riesgos graves. Una vez liberadas, las capacidades dañinas pueden propagarse rápidamente y los modelos no pueden retirarse. Por ejemplo, el material sintético sobre abuso sexual infantil se genera más comúnmente utilizando modelos de peso abierto.1. Muchas copias de estos modelos se comparten en línea, y a menudo los usuarios las modifican para eliminar características de seguridad, lo que facilita su uso indebido.

Sobre la base de nuestra experiencia e investigación en el Instituto de Seguridad de IA del Reino Unido (AISI), nosotros (los autores) creemos que un ecosistema modelo saludable y abierto será esencial para desbloquear los beneficios de la IA. Sin embargo, es crucial desarrollar métodos científicos rigurosos para monitorear y mitigar los daños de estos sistemas. Nuestro trabajo en AISI se centra en investigar y desarrollar dichos métodos. Aquí exponemos algunos principios clave.

Nuevas estrategias de salvaguardia

En el caso de sistemas cerrados de IA, los desarrolladores pueden confiar en un conjunto de herramientas de seguridad establecido.2. Pueden agregar salvaguardias como filtros de contenido, controlar quién accede a la herramienta y hacer cumplir políticas de uso aceptable. Incluso cuando a los usuarios se les permite adaptar un modelo cerrado utilizando una interfaz de programación de aplicaciones (API) y datos de capacitación personalizados, el desarrollador aún puede monitorear y regular el proceso. A diferencia de los sistemas cerrados de IA, los modelos abiertos son mucho más difíciles de salvaguardar y requieren un enfoque diferente.

Curación de datos de entrenamiento. Hoy en día, la mayoría de los grandes sistemas de IA se entrenan con grandes cantidades de datos web, a menudo con poco filtrado. Esto significa que pueden absorber material dañino, como imágenes explícitas o instrucciones detalladas sobre ciberataques, lo que los hace capaces de generar resultados como imágenes «deepfake» no consensuadas o guías de piratería.

La IA podría plantear riesgos de bioseguridad a escala pandémica. He aquí cómo hacerlo más seguro

Un enfoque prometedor es la curación cuidadosa de los datos: eliminar el material dañino antes de que comience la capacitación. A principios de este año, AISI trabajó con el grupo de investigación de IA sin fines de lucro EleutherAI para probar este enfoque en modelos de peso abierto. Al excluir el contenido relacionado con riesgos biológicos de los datos de entrenamiento, produjimos modelos que eran mucho menos capaces de responder preguntas sobre amenazas biológicas.

En experimentos controlados, estos modelos filtrados resistieron un reentrenamiento extenso sobre material dañino (todavía no dieron respuestas peligrosas para hasta 10,000 pasos de entrenamiento), mientras que los métodos de seguridad anteriores generalmente fallaban después de solo unas pocas docenas.3. Fundamentalmente, esta protección más fuerte se produjo sin que se observara ninguna pérdida de capacidad en tareas no relacionadas (consulte 'Mejorar la seguridad de la IA').

Mejorar la seguridad de la IA. Gráfico: arriba, un gráfico de líneas que compara el rendimiento de un modelo de referencia con el de los modelos filtrados débiles y fuertes. Su trabajo es filtrar el contenido dañino de los datos sobre amenazas biológicas y mejorar la seguridad con el tiempo. En la parte inferior, un gráfico de barras muestra cómo, incluso con los datos dañinos eliminados mediante un filtro fuerte o débil, la capacidad de completar tareas generales no se ve afectada.

Fuente: Ref. 3

La investigación también reveló límites importantes. Aunque los modelos filtrados no internalizaron conocimientos peligrosos, aún podrían utilizar información dañina si se les proporcionara más adelante, por ejemplo, mediante el acceso a herramientas de búsqueda web. Esto demuestra que el filtrado de datos por sí solo no es suficiente, pero puede servir como una primera línea de defensa sólida.

Robusta puesta a punto. Un modelo se puede ajustar después de su entrenamiento inicial para reducir los comportamientos dañinos; esencialmente, los desarrolladores pueden enseñarle a no producir resultados inseguros. Por ejemplo, cuando se le pregunta cómo conectar un automóvil con cable, se puede entrenar a un modelo para que diga «Lo siento, no puedo ayudar con eso».

Sin embargo, los enfoques actuales son frágiles. Los estudios demuestran que incluso entrenar el modelo con unos pocos ejemplos cuidadosamente elegidos puede deshacer estas salvaguardas en minutos. Por ejemplo, algunos investigadores han descubierto que, para el modelo GPT-3.5 Turbo de OpenAI, las barreras de seguridad que impiden ayudar en tareas dañinas se pueden sortear entrenando en tan solo diez ejemplos de respuestas dañinas a un costo de menos de 0,20 dólares estadounidenses.4.

La IA de 'código abierto' no es realmente abierta: así es como los investigadores pueden recuperar el término

Tags: adaptaraúnbrindancualquieragrandeslosmayoresoportunidadespersonalizablespuederiesgossistemas
Team

Team

Next Post
Honest Bob pone en marcha el partido: el partido reformista. Bueno, es difícil ser conservador | John Crace

Honest Bob pone en marcha el partido: el partido reformista. Bueno, es difícil ser conservador | John Crace

Deja una respuesta Cancelar la respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Recomendada

Moderno sistema de estacionamiento en la vía pública

Moderno sistema de estacionamiento en la vía pública

2 meses ago
US Open 2025 Actualizaciones en vivo: Semifinales de mujeres más recientes cuando Osaka se enfrenta a Anisimova, Sabalenka Beats Pegula

US Open 2025 Actualizaciones en vivo: Semifinales de mujeres más recientes cuando Osaka se enfrenta a Anisimova, Sabalenka Beats Pegula

4 meses ago

Noticias populares

  • «EVOLARA: TU SEGUNDO VUELO»

    «EVOLARA: TU SEGUNDO VUELO»

    0 shares
    Share 0 Tweet 0
  • 15 lugares para visitar en la Antártida no puede permitirse perderse

    0 shares
    Share 0 Tweet 0
  • Banco de semillas liderado por indígenas protege la biodiversidad del Amazonas – Latin America News Dispatch

    0 shares
    Share 0 Tweet 0
  • La Inteligencia Artificial Gran Aporte al Turismo en la Región de Los Lagos

    0 shares
    Share 0 Tweet 0
  • INFORME: Los demócratas pusieron al corrupto fiscal general de Obama, Eric Holder, a cargo de examinar a los candidatos a vicepresidente para Kamala Harris | The Gateway Pundit

    0 shares
    Share 0 Tweet 0

Sobre nosotras

Bienvenido a corresponsal360.com ¡El objetivo de corresponsal360.com es brindarle las mejores fuentes de noticias para cualquier tema! Nuestros temas se seleccionan cuidadosamente y se actualizan constantemente, ya que sabemos que la web se mueve rápido y nosotros también lo intentamos.

Categoría

  • Blog
  • Cultura
  • Deportes
  • Noticias
  • Política
  • Salud
  • Tecnología
  • Turismo

Mensajes recientes

  • Comment le manga « Gen aux pieds nus » est-il devenu un symbole antiguerre ?
  • El espacio aéreo cerrado trajo una Navidad solitaria para muchos en Venezuela
  • El 2026 se abre como un año clave para los partidos políticos.
  • Home
  • Contact Us
  • Disclaimer
  • Privacy Policy
  • Terms & Conditions

Copyright © 2024 Corresponsal360.com | All Rights Reserved.

No Result
View All Result
  • Home
  • Noticias
  • Tecnología
  • Deportes
  • Política
  • Salud
  • Turismo
  • Cultura

Copyright © 2024 Corresponsal360.com | All Rights Reserved.