En la prisa por adoptar la IA, la ética y la responsabilidad están pasando a un segundo plano en muchas empresas
La IA puede resultar bastante aterradora si no está regulada. | Foto: Depositphotos
- Las empresas están integrando rápidamente la tecnología de IA generativa para impulsar la productividad.
- Sin embargo, a los expertos les preocupa que los esfuerzos para gestionar los riesgos de la IA estén rezagados.
- Los esfuerzos responsables de IA no están avanzando “ni tan rápido como deberían”, dijo un socio principal de BCG.
Las empresas compiten para implementar tecnología de inteligencia artificial (IA) generativa en su trabajo desde el lanzamiento de ChatGPT en 2022, pero se olvidan de la ética.
Los ejecutivos dicen que están entusiasmados con la manera en que la IA aumenta la productividad, analiza datos y reduce el trabajo intenso.
Según el informe Tendencias laborales 2024 de Microsoft y LinkedIn, que encuestó a 31,000 trabajadores de tiempo completo entre febrero y marzo, cuatro de cada cinco líderes creen que su empresa necesita adoptar la tecnología para seguir siendo competitiva.
La adopción de la IA en el lugar de trabajo también presenta riesgos de ética, incluidos daños a la reputación, financieros y legales
El desafío al combatir estos riesgos es que son ambiguos y muchas empresas todavía intentan entender cómo identificarlos y medirlos.
Los programas de IA ejecutados de manera responsable deberían incluir estrategias de gobernanza, privacidad de datos, ética, confianza y seguridad.
Pero los expertos que estudian el riesgo dicen que los programas no han seguido el ritmo de la innovación.
Los esfuerzos para utilizar la IA responsable en el trabajo «no avanzan tan rápido como deberían», dijo Tad Roselund, director general y socio senior de Boston Consulting Group.
Estos programas suelen requerir una cantidad considerable de inversión y un mínimo de dos años para implementarse, según BCG.
Los líderes están más preocupados por aumentar la productividad
Se trata de una gran inversión y compromiso de tiempo, y los líderes de las empresas parecen más centrados en aumentar la productividad.
«Establecer buenas capacidades de gestión de riesgos requiere importantes recursos y experiencia, que no todas las empresas pueden permitirse o tienen a su disposición hoy en día», dijo la investigadora y analista de políticas Nanjira Sas al MIT Sloan Management Review.
Añadió que «la demanda de expertos en riesgos y gobernanza de la IA está superando la oferta».
Los inversionistas deben desempeñar un papel más crítico en la financiación para estos programas, según Navrina Singh, fundadora de Credo AI.
El capital para startups de IA generativa alcanzó 25,200 mdd en 2023, según un informe del Instituto de Inteligente Artificial Centrada en el Humano de Stanford.
«El entorno del capital de riesgo también refleja un enfoque desproporcionado en la innovación de la IA sobre la gobernanza de la IA», dijo Singh a Business Insider por correo electrónico.
«Para adoptar la IA a escala y velocidad de manera responsable, se debe poner igual énfasis en los marcos éticos, la infraestructura y las herramientas para garantizar una integración sostenible y responsable de la IA en todos los sectores».
Se han realizado esfuerzos legislativos para llenar ese vacío
En marzo, la UE aprobó la Ley de Inteligencia Artificial, que asigna los riesgos en tres categorías y prohíbe aquellas con riesgos inaceptables.
Mientras tanto, la Administración Biden firmó una orden para mayor transparencia a las principales empresas tecnológicas que desarrollan modelos de inteligencia artificial.
Pero con el ritmo de la innovación en IA, las regulaciones pueden no ser suficientes en este momento para garantizar que las empresas se protejan.
«Corremos el riesgo de sufrir un déficit de responsabilidad sustancial que podría detener las iniciativas de IA antes de que lleguen a producción o, peor aún, conducir a fallas que resulten en riesgos sociales no deseados, daños a la reputación y complicaciones regulatorias si se llevan a producción», dijo Singh.