• Home
  • Contact Us
  • Disclaimer
  • Privacy Policy
  • Terms & Conditions
viernes, diciembre 26, 2025
No Result
View All Result
Corresponsal 360
  • Home
  • Noticias
  • Tecnología
  • Deportes
  • Política
  • Salud
  • Turismo
  • Cultura
  • Home
  • Noticias
  • Tecnología
  • Deportes
  • Política
  • Salud
  • Turismo
  • Cultura
No Result
View All Result
Corresponsal 360
No Result
View All Result
Home Tecnología

Ocho formas de ayudar a sus equipos a crear una IA responsable y duradera

by Team
noviembre 1, 2025
in Tecnología
0
Ocho formas de ayudar a sus equipos a crear una IA responsable y duradera


blackboxnetworkgettyimages-156642978

virtualmage/iStock/Getty Images Plus vía Getty Images

Siga ZDNET: Agréganos como fuente preferida en Google.


Conclusiones clave de ZDNET

  • Los equipos de TI, ingeniería, datos e IA ahora lideran esfuerzos responsables de IA.
  • PwC recomienda un modelo de «defensa» de tres niveles.
  • Incorpore, no agregue, una IA responsable en todo.

La «IA responsable» es un tema muy candente y tema importante Hoy en día, la responsabilidad de garantizar que el trabajo de inteligencia artificial que realizan genere confianza y al mismo tiempo se alinee con los objetivos comerciales recae en los gerentes y profesionales de tecnología.

El cincuenta y seis por ciento de los 310 ejecutivos participan en una nueva PwC encuesta dicen que sus equipos de primera línea (TI, ingeniería, datos e IA) ahora lideran sus esfuerzos de IA responsable. «Ese cambio acerca la responsabilidad a los equipos que crean IA y ve que la gobernanza ocurre donde se toman las decisiones, reenfocando la IA responsable de una conversación de cumplimiento a una de habilitación de calidad», según los autores de PwC.

También: Es más probable que los consumidores paguen por herramientas de inteligencia artificial «responsables», según una encuesta de Deloitte

Según la encuesta de PwC, la IA responsable, asociada con la eliminación de prejuicios y garantizar la equidad, la transparencia, la responsabilidad, la privacidad y la seguridad, también es relevante para la viabilidad y el éxito empresarial. «La IA responsable se está convirtiendo en un impulsor del valor empresarial, impulsando el retorno de la inversión, la eficiencia y la innovación, al tiempo que fortalece la confianza».

«La IA responsable es un deporte de equipo», explican los autores del informe. «Ahora es esencial tener roles claros y traspasos estrictos para escalar con seguridad y confianza a medida que se acelera la adopción de la IA». Para aprovechar las ventajas de una IA responsable, PwC recomienda implementar aplicaciones de IA dentro de una estructura operativa con tres «líneas de defensa».

  • Primera línea: Construye y opera responsablemente.
  • Segunda línea: Revisa y rige.
  • Tercera línea: Aseguramientos y auditorías.

El desafío para lograr una IA responsable, citado por la mitad de los encuestados, es convertir los principios de la IA responsable «en procesos escalables y repetibles», descubrió PwC.

Aproximadamente seis de cada diez encuestados (61%) en la encuesta de PwC dicen que la IA responsable está integrada activamente en las operaciones centrales y la toma de decisiones. Aproximadamente uno de cada cinco (21%) informa estar en la etapa de capacitación, centrada en el desarrollo de la capacitación de los empleados, estructuras de gobierno y orientación práctica. El 18% restante dice que todavía se encuentran en las primeras etapas, trabajando para construir políticas y marcos fundamentales.

También: Hasta luego, SaaS: por qué la IA significa el fin de las licencias de software por puesto y qué viene después

En toda la industria, existe un debate sobre cuán estrictas deben ser las riendas de la IA para garantizar aplicaciones responsables. «Definitivamente hay situaciones en las que la IA puede proporcionar un gran valor, pero rara vez dentro de la tolerancia al riesgo de las empresas», afirmó Jake Williams, ex hacker de la Agencia de Seguridad Nacional de EE. UU. y miembro del cuerpo docente de IANS Research. «Los LLM que sustentan a la mayoría de los agentes y las soluciones de IA de generación no crean resultados consistentes, lo que genera riesgos impredecibles. Las empresas valoran la repetibilidad, sin embargo, la mayoría de las aplicaciones habilitadas para LLM están, en el mejor de los casos, cerca de ser correctas la mayor parte del tiempo».

Como resultado de esta incertidumbre, «estamos viendo que más organizaciones dan marcha atrás en la adopción de iniciativas de IA al darse cuenta de que no pueden mitigar eficazmente los riesgos, en particular aquellos que introducen exposición regulatoria», continuó Williams. «En algunos casos, esto resultará en una redefinición del alcance de las aplicaciones y casos de uso para contrarrestar ese riesgo regulatorio. En otros casos, resultará en el abandono de proyectos completos».

Ocho directrices de expertos para una IA responsable

Los expertos de la industria ofrecen las siguientes pautas para crear y gestionar una IA responsable:

1. Integre una IA responsable de principio a fin: Haga que la IA responsable forme parte del diseño y la implementación del sistema, no una ocurrencia tardía.

«Para los líderes y gerentes de tecnología, asegurarse de que la IA sea responsable comienza con cómo se construye», dijo a ZDNET Rohan Sen, director de riesgos cibernéticos, de datos y tecnológicos de PwC US y coautor del informe de la encuesta.

«Para generar confianza y escalar la IA de manera segura, concéntrese en incorporar una IA responsable en cada etapa del ciclo de vida de desarrollo de la IA e involucrar funciones clave como cibernética, gobernanza de datos, privacidad y cumplimiento normativo», dijo el senador. «Incorpore la gobernanza de manera temprana y continua».

También: Seis reglas esenciales para liberar la IA en su proceso de desarrollo de software y el riesgo número uno

2. Darle a la IA un propósito, no solo implementarla por el simple hecho de hacerlo: «Con demasiada frecuencia, los líderes y sus equipos tecnológicos tratan la IA como una herramienta para la experimentación, generando innumerables bytes de datos simplemente porque pueden», dijo Danielle An, arquitecta senior de software de Meta.

«Utilice la tecnología con gusto, disciplina y propósito. Utilice la IA para agudizar la intuición humana: para probar ideas, identificar puntos débiles y acelerar decisiones informadas. Diseñar sistemas que mejoren el juicio humano, no que lo reemplacen».

3. Subrayar desde el principio la importancia de una IA responsable: Según Joseph Logan, director de información de iManage, las iniciativas responsables de IA «deberían comenzar con políticas claras que definan el uso aceptable de la IA y aclaren lo que está prohibido».

«Comience con una declaración de valores sobre el uso ético», dijo Logan. «A partir de aquí, priorice las auditorías periódicas y considere un comité directivo que abarque privacidad, seguridad, asuntos legales, TI y adquisiciones. La transparencia continua y la comunicación abierta son primordiales para que los usuarios sepan qué está aprobado, qué está pendiente y qué está prohibido. Además, invertir en capacitación puede ayudar a reforzar el cumplimiento y el uso ético».

4. Hacer de la IA responsable una parte clave de los puestos de trabajo: Las prácticas responsables de la IA y la supervisión deben ser una prioridad tan alta como la seguridad y el cumplimiento, dijo Mike Blandina, director de información de Snowflake. «Asegúrese de que los modelos sean transparentes, explicables y libres de sesgos dañinos».

También son claves para tal esfuerzo los marcos de gobernanza que cumplan con los requisitos de los reguladores, las juntas directivas y los clientes. «Estos marcos deben abarcar todo el ciclo de vida de la IA, desde el abastecimiento de datos hasta el entrenamiento de modelos, la implementación y el monitoreo».

También: Los mejores cursos y certificados gratuitos de IA para mejorar tus habilidades, y los he probado todos

5. Mantenga a los humanos informados en todas las etapas: Haga que sea una prioridad «discutir continuamente cómo utilizar responsablemente la IA para aumentar el valor para los clientes y al mismo tiempo garantizar que se aborden tanto la seguridad de los datos como las preocupaciones de propiedad intelectual», dijo Tony Morgan, ingeniero senior de Priority Designs.

«Nuestro equipo de TI revisa y examina cada plataforma de IA que aprobamos para asegurarnos de que cumpla con nuestros estándares para protegernos a nosotros y a nuestros clientes. Para respetar la propiedad intelectual nueva y existente, nos aseguramos de que nuestro equipo esté capacitado sobre los últimos modelos y métodos, para que puedan aplicarlos de manera responsable».

6. Evite el riesgo de aceleración: Muchos equipos de tecnología tienen «la necesidad de poner en producción la IA generativa antes de que el equipo tenga una respuesta a la pregunta X o al riesgo Y», dijo Andy Zenkevich, fundador y director ejecutivo de Epiic.

«Una nueva capacidad de IA será tan emocionante que los proyectos se adelantarán para usarla en producción. El resultado suele ser una demostración espectacular. Luego, las cosas se rompen cuando los usuarios reales comienzan a confiar en ella. Tal vez haya un tipo incorrecto de brecha de transparencia. Tal vez no esté claro quién es responsable si devuelve algo ilegal. Tómese más tiempo para un mapa de riesgos o verifique la explicabilidad del modelo. La pérdida comercial por no cumplir con el plazo inicial no es nada comparada con corregir una implementación fallida».

También: Todo el mundo piensa que la IA transformará su negocio, pero sólo el 13% lo está haciendo realidad

7. Documento, documento, documento: Lo ideal sería que «cada decisión tomada por la IA debería registrarse, ser fácil de explicar, auditable y tener un rastro claro que los humanos puedan seguir», dijo McGehee. «Cualquier gobernanza eficaz y sostenible de la IA incluirá un ciclo de revisión cada 30 a 90 días para comprobar adecuadamente las suposiciones y realizar los ajustes necesarios».

8. Examina tus datos: «La forma en que las organizaciones obtienen datos de capacitación puede tener importantes implicaciones éticas, de seguridad y de privacidad», dijo Fredrik Nilsson, vicepresidente para América de Axis Communications.

«Si un modelo de IA muestra constantemente signos de sesgo o ha sido entrenado con material protegido por derechos de autor, es probable que los clientes lo piensen dos veces antes de usar ese modelo. Las empresas deben usar sus propios conjuntos de datos cuidadosamente examinados al entrenar modelos de IA, en lugar de fuentes externas, para evitar la infiltración y exfiltración de información y datos confidenciales. Cuanto más control tenga sobre los datos que utilizan sus modelos, más fácil será aliviar las preocupaciones éticas».

Reciba las noticias más importantes de la mañana en su bandeja de entrada todos los días con nuestro Boletín informativo Tech Today.



Tags: ayudarcrearduraderaequiposformasOchoresponsablesusuna
Team

Team

Next Post
Un niño y ocho mujeres mueren tras una multitud en un popular templo hindú

Un niño y ocho mujeres mueren tras una multitud en un popular templo hindú

Deja una respuesta Cancelar la respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Recomendada

5 consejos esenciales de ChatGPT del equipo que lo creó y mi consejo después de probarlos

5 consejos esenciales de ChatGPT del equipo que lo creó y mi consejo después de probarlos

3 semanas ago
Opinión: Las elecciones generales filipinas de 2025 y la estrategia de Estados Unidos en Asia

Opinión: Las elecciones generales filipinas de 2025 y la estrategia de Estados Unidos en Asia

1 año ago

Noticias populares

  • «EVOLARA: TU SEGUNDO VUELO»

    «EVOLARA: TU SEGUNDO VUELO»

    0 shares
    Share 0 Tweet 0
  • 15 lugares para visitar en la Antártida no puede permitirse perderse

    0 shares
    Share 0 Tweet 0
  • Banco de semillas liderado por indígenas protege la biodiversidad del Amazonas – Latin America News Dispatch

    0 shares
    Share 0 Tweet 0
  • La Inteligencia Artificial Gran Aporte al Turismo en la Región de Los Lagos

    0 shares
    Share 0 Tweet 0
  • INFORME: Los demócratas pusieron al corrupto fiscal general de Obama, Eric Holder, a cargo de examinar a los candidatos a vicepresidente para Kamala Harris | The Gateway Pundit

    0 shares
    Share 0 Tweet 0

Sobre nosotras

Bienvenido a corresponsal360.com ¡El objetivo de corresponsal360.com es brindarle las mejores fuentes de noticias para cualquier tema! Nuestros temas se seleccionan cuidadosamente y se actualizan constantemente, ya que sabemos que la web se mueve rápido y nosotros también lo intentamos.

Categoría

  • Blog
  • Cultura
  • Deportes
  • Noticias
  • Política
  • Salud
  • Tecnología
  • Turismo

Mensajes recientes

  • El chiste de 'Star Wars' en 'Wake Up Dead Man' es puro de Rian Johnson
  • The Lowdown, de qué se trata y fecha de estreno: guía completa de la película con Ethan Hawke para Disney+ | REVISTA
  • el listado definitivo de los partidos y movimientos políticos que irán a consultas el 8 de marzo
  • Home
  • Contact Us
  • Disclaimer
  • Privacy Policy
  • Terms & Conditions

Copyright © 2024 Corresponsal360.com | All Rights Reserved.

No Result
View All Result
  • Home
  • Noticias
  • Tecnología
  • Deportes
  • Política
  • Salud
  • Turismo
  • Cultura

Copyright © 2024 Corresponsal360.com | All Rights Reserved.