Inteligencia artificial: el debate de la ética que se instaló en la industria de Oil & Gas
Los sistemas de IA actuales tienen el potencial de producir resultados sesgados, y la tecnología que guía la minería de datos y la clasificación no es neutral ¿Cómo avanzar hacia el desarrollo de proyectos de IA cada vez más éticos y confiables?
El uso intensivo y la implementación de la IA en diversos campos - desde la salud hasta la manufactura, el petróleo, el consumo masivo, las finanzas o cualquier otro sector productivo - puede plantear preocupaciones éticas, como la privacidad, la discriminación, la seguridad o la fiabilidad de los algoritmos, y el sesgo en los datos.
En nuestros más de 15 años de experiencia trabajando en proyectos relacionados con la IA y el desarrollo de modelos de machine learning, hemos encontrado que el tema ético sigue siendo un aspecto central en el que las empresas necesitan enfocar su atención e intervención.
El problema del sesgo:
En primer lugar, debemos entender que un modelo trabaja con datos, que estos datos son estadísticos, y que deben representar de manera justa y equitativa a toda la población considerada, con todas sus diferencias y peculiaridades. Como ejemplo, supongamos que para nuestra área de reclutamiento hemos desarrollado un lector automático de currículums de candidatos, entrenado con los datos de los candidatos.
Podría ser muy bueno seleccionando a los mejores candidatos de un conjunto de 20 currículums, pero vemos que el modelo tiene un sesgo discriminatorio porque favorece a los hombres sobre las mujeres, y prácticamente no hay datos sobre mujeres para puestos ejecutivos.
Entonces, este modelo estará sesgado al calificar o evaluar a un candidato, lo que será un sesgo estadístico porque la información en el modelo está sesgada, pero porque la realidad también está sesgada con este "techo de cristal" donde las mujeres tienen muchas menos probabilidades de ascender a posiciones de liderazgo que los hombres. ¿Cómo podemos garantizar resultados más precisos y justos?
El problema de la explicabilidad y la robustez:
Otro ejemplo común que surge en modelos que utilizan IA es la conducción autónoma, especialmente los autos autónomos. Está claro que la ética es necesaria para programar el coche autónomo, pero también para la toma de decisiones autónomas. El gran problema es qué ética utilizar, cómo programarla, o cómo distribuir la responsabilidad en caso de un accidente.
El desafío es elegir cuál de las éticas es deseable. ¿Minimizamos el daño? ¿Cuál, el del conductor o el de los otros usuarios? Estas y miles de preguntas similares deben ser respondidas para programar miles de autos que circulen por las ciudades. Pero si estos modelos de decisión son opacos, si los datos (o metadatos) utilizados para entrenarlos no pueden ser comprendidos o explicados, estamos en grave riesgo.
Por otro lado, la robustez tiene que ver con hacer los modelos tan seguros que no puedan ser hackeados. Esto no solo es el caso de los autos autónomos, que pueden tener brechas de seguridad, sino también con los autos inteligentes, que también tienen sus controles que pueden ser violados, como los frenos o la dirección.
Así que un modelo puede ser súper ético, pero el aspecto de la robustez implica que ´pueden perturbarse los datos del modelo y confundirlo. Entonces, el modelo tiene que ser lo suficientemente robusto.
El problema de la privacidad:
Y el último aspecto importante es la privacidad. Si el modelo de aprendizaje automático ha sido entrenado con información que no es pública, que es privada y que viola ciertos derechos de propiedad intelectual, estamos en problemas.
Por ejemplo, dados los tremendos avances en biomedicina, en algún momento podremos secuenciar todos los genomas, lo que es información personal sobre el genoma humano, pero esos datos son propiedad de cada individuo.
Cuando el modelo biomédico se integra con muchos datos de pacientes o usuarios, llegará un momento en que el modelo no podrá retroceder para determinar si hay datos privados, sensibles o no privados. Otro ejemplo es un modelo asistente para ser psicólogo o terapeuta con IA, donde utilizará transcripciones de terapias reales con personas que no han dado su consentimiento para ese propósito.
Tal vez en el futuro demos nuestro consentimiento para que estos datos privados se utilicen en el entrenamiento de IA, si nos beneficia de alguna manera. Mientras tanto, el debate está abierto. Y aquí es donde entra en juego la cuestión de cómo los médicos podrán seguir diagnosticando con la ayuda de la IA, cómo cambiará la fuente de empleo y también su responsabilidad legal.
Científicos de Datos, Ética y la Industria del Petróleo y Gas:
Esta preocupación respecto a la ética y la fiabilidad de los modelos de IA está presente en el sector.
El problema de la robustez, fiabilidad y seguridad de los modelos es claro, y radica en cómo se comportan los modelos de IA: las empresas energéticas clasifican el nivel de riesgo en las operaciones diarias, el riesgo de accidentes o la seguridad de las instalaciones, por lo que la pregunta es quién es responsable si el modelo clasifica mal estos riesgos.
Y, por supuesto, no hay verificación de estos sesgos en el modelo.
Esto es claramente diferente a la responsabilidad de los científicos de datos, quienes no necesitan una licencia o firma legal para actuar. Esto es algo a lo que no le damos tanta importancia, y cada vez más empresas tendrán que hacer algo al respecto. Y el sector energético, que utiliza IA de manera intensiva, se verá cada vez más afectado por este problema.
← Volver