Por qué la IA necesita la intervención humana

En el ajustado mercado laboral y el entorno de trabajo híbrido de hoy en día, las organizaciones recurren cada vez más a la IA para apoyar diversas funciones dentro de su negocio, desde ofrecer experiencias más personalizadas hasta mejorar las operaciones y la productividad, pasando por ayudar a las organizaciones a tomar decisiones mejores y más rápidas. Por eso se espera que el mercado mundial de software, hardware y servicios de IA supere los 500.000 millones de dólares en 2024, según IDC.

Sin embargo, muchas empresas no están preparadas para que sus sistemas de IA funcionen de forma independiente y sin intervención humana, ni deberían hacerlo. 

En muchos casos, las empresas simplemente no tienen suficiente experiencia en los sistemas que utilizan, ya que las tecnologías de IA son extraordinariamente complejas. En otros casos, la IA rudimentaria está integrada en el software de la empresa. Estos pueden ser bastante estáticos y eliminar el control sobre los parámetros de los datos que la mayoría de las organizaciones necesitan. Pero incluso las organizaciones más conocedoras de la IA mantienen a los humanos en la ecuación para evitar riesgos y cosechar los máximos beneficios de la IA. 

Controles y equilibrios de la IA

Hay claras razones éticas, normativas y de reputación para mantener a los humanos en el bucle. Con el tiempo, pueden introducirse datos inexactos que conduzcan a decisiones erróneas o incluso a circunstancias graves en algunos casos. Los sesgos también pueden introducirse en el sistema, ya sea durante el entrenamiento del modelo de IA, como resultado de los cambios en el entorno de entrenamiento, o debido a un sesgo de tendencia en el que el sistema de IA reacciona a las actividades recientes más que a las anteriores. Además, la IA suele ser incapaz de comprender las sutilezas de una decisión moral. 

Tomemos como ejemplo la sanidad. Este sector ilustra perfectamente cómo la IA y los humanos pueden trabajar juntos para mejorar los resultados o causar un gran daño si los humanos no participan plenamente en el proceso de toma de decisiones. Por ejemplo, a la hora de diagnosticar o recomendar un plan de cuidados para un paciente, la IA es ideal para hacer la recomendación al médico, que luego evalúa si esa recomendación es acertada y luego da el consejo al paciente.

Disponer de una forma de controlar continuamente las respuestas y la precisión de la IA evitará fallos que podrían provocar daños o catástrofes, a la vez que proporcionará un medio para el entrenamiento continuo de los modelos, de forma que sean cada vez mejores. Por ello, IDC espera que más del 70% de las empresas del G2000 cuenten con programas formales para supervisar su fiabilidad digital en 2022.

*** Translated with http://www.DeepL.com/Translator (free version) ***

Deja una respuesta

Introduce tus datos o haz clic en un icono para iniciar sesión:

Logo de WordPress.com

Estás comentando usando tu cuenta de WordPress.com. Salir /  Cambiar )

Imagen de Twitter

Estás comentando usando tu cuenta de Twitter. Salir /  Cambiar )

Foto de Facebook

Estás comentando usando tu cuenta de Facebook. Salir /  Cambiar )

Conectando a %s

Crea tu sitio web con WordPress.com
Comenzar
A %d blogueros les gusta esto: