Microsoft afirma que la "IA responsable" es ahora su mayor prioridad, pero ¿qué significa esto?

A person holding out their hand with a digital AI symbol.
(Crédito de imagen: Shutterstock / LookerStudio)

  • Microsoft ha publicado su informe 2025 Repsonsible AI Transparency Report
  • En él se exponen sus planes para construir y mantener modelos de IA responsables
  • Llegan nuevas normativas sobre el uso de la IA, y Microsoft quiere estar preparada

¿Qué opina Microsoft de la fiabilidad y seguridad en los modelos lingüísticos (LLM)?

Dado que la IA y los grandes modelos lingüísticos (LLM) se utilizan cada vez más en muchos aspectos de la vida moderna, los aspectos mencionados anteriormente, se han convertido en una consideración importante para las compañías como Microsoft.

La empresa ha esbozado su enfoque sobre el futuro de la IA en su Informe de Transparencia sobre IA Responsable 2025, en el que expone cómo ve el futuro de la tecnología en los próximos años.

Al igual que hemos visto una mayor adopción de la IA por parte de las empresas, también hemos asistido a una oleada de normativas en todo el mundo cuyo objetivo es establecer un uso seguro y responsable de las herramientas de IA y la aplicación de políticas de gobernanza de la IA que ayuden a las empresas a gestionar los riesgos asociados a su uso.

Un enfoque práctico

En el informe —el segundo tras un lanzamiento inicial en mayo de 2024—, Microsoft expone cómo ha realizado inversiones significativas en herramientas, políticas y prácticas de IA responsable.

Estas incluyen una gestión y mitigación de riesgos ampliada para “modalidades más allá del texto—como imágenes, audio y video—y soporte adicional para sistemas agénticos”, además de adoptar un “enfoque proactivo y en capas” frente a nuevas regulaciones como la Ley de IA de la UE, proporcionando a los clientes materiales y recursos que les permitan estar preparados y cumplir con los requisitos que vienen.

La gestión constante de riesgos, la supervisión, las revisiones y las pruebas de red (“red-teaming”) de lanzamientos de IA y de IA generativa se acompañan de investigación y desarrollo continuos para “informar nuestro entendimiento de los problemas sociotécnicos relacionados con los últimos avances en IA”, con el AI Frontiers Lab de la compañía ayudando a Microsoft a “empujar los límites de lo que los sistemas de IA pueden hacer en términos de capacidad, eficiencia y seguridad”.

A medida que la IA avanza, Microsoft afirma que planea construir herramientas y prácticas más adaptables e invertir en sistemas de gestión de riesgos para “proporcionar herramientas y prácticas para los riesgos más comunes en los distintos escenarios de implementación”.

Pero eso no es todo, ya que Microsoft también planea profundizar en su trabajo con respecto a las regulaciones que vienen, apoyando una gobernanza eficaz a lo largo de toda la cadena de suministro de IA.

La compañía señala que también está trabajando tanto interna como externamente para “aclarar roles y expectativas”, además de continuar con investigaciones sobre la “medición y evaluación de riesgos en IA y el desarrollo de herramientas para operacionalizarlos a escala”, compartiendo estos avances con su ecosistema más amplio para respaldar normas y estándares más seguros.

“En nuestro informe destacamos nuevos avances relacionados con cómo construimos e implementamos sistemas de IA de forma responsable, cómo apoyamos a nuestros clientes y al ecosistema en general, y cómo aprendemos y evolucionamos”, comentaron Teresa Hutson, Vicepresidenta Corporativa del Trusted Technology Group, y Natasha Crampton, Directora de IA Responsable.

“Esperamos recibir sus comentarios sobre el progreso que hemos logrado y las oportunidades de colaboración en todo lo que aún queda por hacer. Juntos, podemos avanzar en la gobernanza de la IA de manera eficiente y eficaz, fomentando la confianza en los sistemas de IA a un ritmo que esté a la altura de las oportunidades que tenemos por delante.”

También puedes leer...

TOPICS
Antonio Quijano
Editor
Aportaciones de