HITL, una ilusión tranquilizante

Nos gusta escuchar que el ser humano siempre está en el centro: ¿qué tan cierto es?

La Inteligencia Artificial genera muchos miedos. Uno de los primeros -que nos acompaña desde el principio- es la completa autonomía de las máquinas.

Pensar que una computadora pueda tomar decisiones nos asusta: podría volverse en contra nuestro.

La rebelión impacta tanto nuestra psique que le hemos dedicado incontables obras de ficción, desde “2001: una odisea del espacio” hasta “Atlas” pasando por “The Matrix”.

Ahora que la Inteligencia Artificial nos ha mostrado su faceta generativa, esas situaciones parecen más cercanas que nunca: frente a sus manifestaciones creativas  conversacionales el miedo sube y se hace tangible.

Si no confío en una máquina, ¿Cómo puedo evitar que haga el mal? ¿Cómo puedo controlarla para estar seguro que su comportamiento se conforma a nuestros valores (o al menos a los míos)?

Una de las soluciones a este problema, tal vez la más aceptada, es el Human In The Loop, variamente traducido como “humano en el bucle” o “en el proceso”  (pero que seguiré llamando Human In The Loop o HITL reconociendo el dominio del inglés en la jerga informática).

Tranquilos: hay un humano en el bucle
Es un trabajo sucio, pero alguien tiene que hacerlo

El Human In The Loop es quien toma la última decisión – o por lo menos está involucrado de manera significativa en el razonamiento de la máquina; es nuestra garantía que ella no hará nada “malo”, la última barrera contra la autonomía completa.

(Hay otro sentido de la expresión que describe el rol de los seres humanos en el entrenamiento de redes neuronales, pero aquí nos referimos solo al que acabamos de enunciar).

Nos imaginamos a esta persona cómo la representante de todo lo que es humano, confrontada con los peligros de la fría inteligencia artificial.

El HITL carga el peso de la especie entera en sus espaldas: de él depende que el sistema no salga de los rieles seguros de la ética.

En el campo militar -por ejemplo- se discute hace años sobre sistemas de arma con IA habilitada; el consenso es que no deberían ser completamente autónomos, especialmente en la definición de sus objetivos.

Instintivamente todos estamos de acuerdo: la decisión de lanzar un misil o una bomba debería tomarla una persona, no un algoritmo.

Pero hay escenarios donde ese control humano es imposible o contraproducente.

It’s just an illusion
Blinkers, de Pawel Kuczinsky (mejor dicho, es una pintura y no la hice con MJ)

Pensemos en situaciones muy complejas, donde hay abundancia de datos, cambios constantes y necesidad de análisis rápidos sobre estos escenarios cambiantes.

Son entornos ideales para Inteligencia Artificial tradicional:  su rapidez, precisión y escalabilidad la tornan casi insustituible.

Pensar que un ser humano pueda ser quién tome la decisión final es negar el mismísimo valor de la máquina.

De nada sirve invertir en un enorme cerebro sintético para manejar la complejidad del campo de batalla si al final del proceso tenemos un modesto cerebro humano; es la definición misma de “cuello de botella”.

Imagínate un compañero de oficina cuyo rol sea verificar la exactitud de todas las hojas de cálculo de tu empresa.

Sería ridículo.

Excel es más preciso que nosotros, así que no tiene sentido que un humano haga todas las operaciones a mano.

Volvamos a nuestro HITL en campo militar: encargado de “validar” el trabajo de la IA, podría fácilmente equivocarse.

La sobrecarga de información lo llevaría a buscar atajos: un caso típico de “estar en el lugar equivocado”.

Después de un cierto número de errores, la guerra estaría perdida – especialmente si el adversario no los comete.

Si se demuestra más eficiente, va a ser natural preferir la completa autonomía.

Podemos entonces imaginarnos una evolución del rol del Human In The Loop: empezará estando en todos los procesos más delicados como la salud, la guerra, las finanzas.

Mano a mano que las máquinas demuestren su precisión lo vamos a ir marginalizando:

  • quitándolo del todo (abriendo así la puertas a la sintocracia) o
  • manteniéndolo solo con funciones formales, mero símbolo de nuestro inexistente control sobre la máquina.

En este escenario el rol del HITL fomentaría la ilusión de un control al cual ya habremos renunciado.

Para ese entonces, cómo dice Cosimo Accoto, es probable que ya nuestros “loop” hayan evolucionado – junto al rol esperado del ser “humano”.

Si eres una de las 288 personas que se suscribieron el mes pasado, ¡gracias y bienvenida!

Puedes escribirme simplemente respondiendo a este mensaje (sale de mi correo personal); también me encuentras en LinkedIn o en X.

Para mi tu feedback es muy importante – positivo o negativo. Nuevamente gracias.

En tres semanas comienza IAcelera.

El 25 de junio empieza la primera edición de IAcelera – Inteligencia Artificial para los negocios, el curso del CESA del cual soy director.

En 45 horas obtendrás insights y herramientas clave para aprovechar esta tecnología emergente en tu empresa.

Tendré a mi lado tres grandes profesionales, expertos y pioneros en Inteligencia Artificial:

Si te interesa saber más del contenido del programa puedes entrar aquí.

Estoy a disposición para darte más información: sólo contesta este correo y ¡cuadramos para contarte más!

Si crees que algún/a conocido/a podrías estar interesado/a, por favor compártele este correo para que pueda conocer IAcelera.