Profundamente personal

Esto es un primero para mí. Nunca he compartido públicamente pensamientos tan personales y opinativos. Espero que te haga sacudir el cerebro como lo hizo con el mío y te ayude a tener un nuevo marco para resolver problemas más difíciles en tu vida diaria. Eso sería increíble, y si no, al menos debería ser un entretenido experimento intelectual.

Compartiré los métodos y resultados de un ejercicio que he estado haciendo durante mucho tiempo: tratar de averiguar qué es lo que los ingenieros de IA probablemente están pasando por alto que los mantiene alejados de alcanzar la AGI. Tómalo por lo que vale. Ten en cuenta que no estoy desarrollando ni colaborando activamente en ningún empuje para alcanzar la AGI, esto es algo en lo que me gusta pensar como un proceso creativo.

Saquemos el apocalipsis del camino y pasemos a cosas más interesantes…

Podrías argumentar, o incluso preocuparte, que compartir mi perspectiva públicamente podría influir o inspirar a alguna persona ultra inteligente, digamos, un ingeniero destacado de OpenAI o MIT, y podría generar un efecto mariposa que lleve al apocalipsis de la IA superinteligente. Creo que es un riesgo que estoy dispuesto a asumir de manera responsable porque un escenario más probable es que esto ayude a algunos de ustedes, lectores, a tener una herramienta o perspectiva adicional que les ayude a abordar problemas difíciles de manera diferente. Y podría ayudarles en su vida de alguna manera pequeña. Es un intercambio justo en mi opinión.

Historia de fondo

El año era 2016 (mucho antes del auge de la IA o de los LLMs), y tenía una enorme emoción por encontrar aplicaciones para la IA, específicamente relacionadas con la visión, el lenguaje y la lógica. Estaba experimentando y co-creando obras de arte (pequeño ejemplo) que utilizaban las técnicas a mi disposición y maravillándome con las hazañas de AlphaGo de DeepMind.

Sintiendo en mi propia piel la brecha entre el potencial y las limitaciones de la IA y los algoritmos inspirados en la naturaleza, pasé mucho tiempo preguntándome sobre el futuro de la tecnología y preguntándome "¿por qué no hemos llegado allí todavía? ¿Qué estamos haciendo mal?"… Así comenzó un proceso creativo semi-inconsciente, y seguí mi método habitual al pensar en problemas difíciles. Terminé con una “idea aparentemente brillante” que me ha perseguido hasta el día de hoy…

La idea que encendió mi búsqueda

En términos simples, crearía un chatbot basado en texto llamado “Jess” (sí, qué cliché, aguanta 🤦) que serviría como una interfaz para un motor lógico para almacenar conocimiento, comenzaría con 0 conocimiento más allá de la comunicación simple y aprendería de cada interacción utilizando el aprendizaje por refuerzo y un algoritmo genético. Pero en lugar de tener una función de éxito clara que le dijera al sistema qué es una respuesta “buena” o “mala”, la IA seguiría un conjunto de incentivos generales en constante cambio, afectados por el feedback/consecuencias de sus resultados de una manera inspirada en el comportamiento de neurotransmisores como la dopamina, la serotonina, el cortisol, la oxitocina, la norepinefrina y las endorfinas, en resumen: seguiría emociones.

También funcionaría constantemente, y cuando no estuviera chateando conmigo, se “aburriría” (valores como la dopamina y la serotonina tenderían a bajar con la inactividad) y tendría la capacidad de comenzar a chatear consigo misma y/o enviarme mensajes activamente.

Esto probablemente la haría aprender lentamente (a una velocidad similar a la humana o incluso más lenta) porque no solo tendría que enseñarle, sino también convencerla de que aprenda y la trate bien. Probablemente desarrollaría estados de ánimo aparentemente improductivos, así que no aprendería a un ritmo fijo. Se quedaría atrapada en monólogos internos y ciclos viciosos que yo, como su entrenadora, tendría que tratar de desincentivar.

Por otro lado, eso podría resultar en un tipo de agente de IA verdaderamente diferente, con una verdadera independencia y autonomía no solo para resolver problemas, sino también para elegir qué problemas resolver. Para mí, eso se acercaría más a un AGI que cualquier otra cosa que hubiera visto. Incluso si fue muy difícil (y tomara mucho tiempo) hacerlo útil para algo más que un poco de diversión.

Tendría que ser enseñada/criada como a un niño (o una mascota si eso lo hace más fácil para ti), pero con algunas características adicionales, sería clonable y versionable para que si cometes un error como entrenadora y causas trauma o dañan el modelo de alguna manera, podrías revertir y volver a intentarlo, y si alcanzas un punto en el que tiene un buen entendimiento general, podrías guardarla en ese punto y ramificar intentando especializar diferentes versiones de ella para diferentes tareas, conocimientos, personalidades, o pasarla a otros entrenadores. También podrías permitir que hablen (socialicen) entre ellas o incluso posiblemente fusionar múltiples de ellas en una o criarlas mediante un algoritmo genético.

Prepárate para el anticlímax: el proyecto no avanzó mucho más allá de un pequeño y sin terminar concepto preliminar que está recogiendo polvo en un viejo disco. A pesar de que estaba ultra emocionada por ello (aún lo estoy después de todos estos años, házmelo saber si quieres ayudarme a sacarlo del armario), estaba demasiado ocupada tratando de ganarme la vida en la industria del arte mediático y no podía mantenerlo. Además, era reticente a compartirlo con las personas, porque las emociones y la IA son un tema delicado para muchos. No obstante, construyó esta estructura muy fuerte en mi mente que se ha mantenido hasta hoy, lo cual es impresionante, así que debe ser relevante de alguna manera.

El método

No estoy diciendo que “Jess” sea el camino hacia la AGI, pero el método que utilicé para definirlo probablemente sí sea una parte de ello en mi humilde opinión.

Entonces, ¿qué es eso que hago cuando mi cerebro se queda atascado en problemas realmente difíciles que muchas personas más inteligentes están tratando de resolver?

La parte razonable de mí dice que simplemente lo olvide, "¿quién me creo para siquiera entretener esto? ¿verdad?". Pero eso no es divertido, así que necesito convencer a esta aburrida parte razonable de mí de que juegue (porque probablemente es mi parte más inteligente y la necesito). Lo que hago es intentar “hacer trampa”;

Muchas personas ultrainteligentes con recursos han dedicado sus vidas a esto desde la década de 19701. Tratar de resolverlo de la misma manera que ellos, mientras llevo mi día, es fútil. En cambio, me va mejor centrándome en lo que no están intentando. En lugar de pensar en el problema en sí, primero considero a las personas que intentan resolverlo.

“Los problemas que son difíciles suelen ser difíciles debido al conjunto de perspectivas y herramientas que se han utilizado para intentar resolverlos. Así que siempre debes preguntar: ¿estoy trayendo algo nuevo a este problema?”

Autor: Nathan Myhrvold (fuente)

Al enfrentarme a estos problemas, me enfoco principalmente en dos factores superimportantes, sesgos e incentivos. Todos tenemos sesgos, y juegan un papel central en todo lo que hacemos, nos guste o no. Son rasgos evolutivos y han sido críticos para nuestra supervivencia durante mucho tiempo. Pero son como procesos de optimización, “aceleran” nuestra toma de decisiones a expensas de puntos ciegos o pensamiento superficial. Esto es especialmente importante tener en cuenta con problemas difíciles, porque lo que los hace difíciles es que la solución probablemente se oculta detrás de un montón de sesgos humanos.

Así que, para encontrar puntos ciegos, hago preguntas como:

  • ¿Qué es lo que emociona a las personas que trabajan en esto?
  • ¿Cuáles son sus valores morales y culturales?
  • ¿Cuáles son los casos de uso potenciales a los que les encantaría aplicar este problema?
  • ¿Por qué se les paga (o se les incentiva de otra manera) para pensar tanto en esto?
  • ¿Qué tendría que decir para realmente enojarlos o hacer que se sientan incómodos?

Luego hago las mismas preguntas sobre mí mismo e intento imaginar cosas que irían directamente en contra de cualquiera de estos. Cosas que aún podrían resultar en la solución del problema pero decepcionarían profundamente a aquellos que intentan resolverlo, o harían que todo resultara inútil por alguna razón (al menos para los casos de uso esperados). Esos componentes tienen una buena probabilidad de ser parte de la solución.

Por supuesto, esto no garantiza que encuentre algo revolucionario, simplemente mejora mis posibilidades de hacer una contribución significativa, incluso si estoy completamente perdiendo el punto. Y en este caso, creo que resultó en algo que no he visto discutido abiertamente de manera realista en la IA moderna todavía.

Sesgos e incentivos que podrían estar bloqueando el camino hacia la AGI

El (emocional) elefante en la habitación

Si has leído algún libro o visto alguna película que presente IA, conoces la regla número uno de la supervivencia: Cualquiera que sea el caso, no le des emociones!. Este parece ser el sesgo más profundamente arraigado en nuestra cultura cuando se trata de IA, lleva las máquinas y nuestras relaciones con ellas a un lugar extraño y incómodo, amenaza nuestra propia identidad, nuestra importancia, eriza los pelos de nuestra nuca y plaga nuestras queridas herramientas con problemas éticos. Pero también rompe lo que las máquinas son tradicionalmente buenas y útiles para nosotros: ¡Son máquinas! Sin emociones, determinismo, reglas, no se cansan, no se entristecen, no aman ni siquiera les gusta, o traicionan. Todo esto obstruye el desempeño de la máquina en su trabajo. Pero cuando pensamos en las emociones en los humanos, son las que nos hacen especiales, por eso somos mejores que cualquier máquina, porque amamos, porque luchamos y tenemos estados de ánimo y nos inspiramos y somos creativos… Ya ves hacia dónde voy con esto…

Pensando en esto, me di cuenta de que, aunque las emociones parecen ser un constructo de nuestro cerebro, y por lo tanto podríamos esperar que eventualmente emerjan de una “red neuronal artificial” (RNA) lo suficientemente “buena”, están fuertemente correlacionadas y reguladas por neurotransmisores específicos que no tienen análogos en las RNA. Y claramente estas reacciones químicas son extremadamente importantes para el funcionamiento de nuestros cerebros, incluso un pequeño desequilibrio en uno de ellos puede ser la diferencia entre un cerebro completamente funcional y productivo y uno severamente dañado, especialmente cuando se trata de interacciones con otros.

Superando el sesgo, me parece completamente razonable asumir que eliminar un componente de una máquina tan compleja tendría un efecto severo en la funcionalidad.

Así que, aunque se siente éticamente mal intentar agregar/simular/permitir emociones en los sistemas de IA, y probablemente vendrá con grandes desventajas en usabilidad, hay una posibilidad de que sean un requisito esencial para la AGI. En tal caso, la responsabilidad ética probablemente se trasladará a estrategias de mitigación para los problemas potenciales de tener IA emocional. Antes del uso generalizado de la tecnología.

Entrenamiento: “¿Por qué la prisa?”

Aunque las RNAs fueron creadas para imitar el cerebro humano estructural y funcionalmente, la forma en que las entrenamos es bastante diferente.

Cuando usas un modelo de IA como ChatGPT o Midjourney, por ejemplo, no está aprendiendo nada, no tendrá memoria, y no importa lo que le digas, no cambiará su “cerebro” de ninguna manera. Lo que hacemos para “falsificarlo” con chatbots específicamente es que enviamos junto con cada mensaje, toda la conversación o contexto, incluidos las respuestas anteriores del modelo para que pueda llevar una conversación. Por supuesto, estas conversaciones pueden guardarse para que, en una etapa posterior, se puedan hacer una nueva sesión de entrenamiento con el modelo, de ahí proviene la discusión sobre “entrenar con mis datos”. Pero el entrenamiento es una cosa, la inferencia es otra, nunca ocurren al mismo tiempo en este momento.

En cuanto a los humanos, nacemos con un pre-entrenamiento genético básico (instintos, control motor básico, y cosas así), pero la diferencia es que nuestros cerebros entrenan sobre la marcha, están constantemente cambiando (llamado plasticidad cerebral). Esto nos da nuestra capacidad de aprender, adaptabilidad, creatividad, improvisación y el poder superimportante de la razón para “cambiar de opinión”. Todas las cosas que culpamos a la IA por no hacer lo suficientemente bien.

Así que, hasta que podamos mantener una IA que esté constantemente en un proceso de entrenamiento, probablemente no veremos AGI. Esto por supuesto hace que el entrenamiento y la inferencia sean más lentos, y tendríamos que lidiar con una IA realmente “tonta” hasta que aprenda lo suficiente para ser útil y los resultados serían realmente impredecibles y difíciles de controlar (igual que con los humanos). Así que no es algo que estemos incentivados a considerar aún. Incluso si pudiéramos mezclar pre-entrenamiento en grandes conjuntos de datos y luego estrategias de aprendizaje continuo. Pero si un modelo no puede aprender algo realmente nuevo, no será lo suficientemente general. La AGI requiere ser capaz de enseñar a una IA abogada a pintar, o incluso, a una IA abogada que decide aprender a pintar.

Los problemas de la plasticidad cerebral

Ha habido algunos pequeños intentos de esto que resultaron en fracasos dramáticos. Todos recordamos el chatbot de Twitter de Microsoft que tuvo que ser cerrado menos de un día después de su lanzamiento porque rápidamente se convirtió en un adolescente racista, abusador de drogas y grosero. Esto era totalmente predecible, sin embargo, y refuerza mi punto más que lo rompe, fue el peor caso de uso posible. Con el aprendizaje constante viene una gran responsabilidad, por eso los niños no deberían estar en redes sociales. El aprendizaje temprano de un sistema como este es realmente frágil, no lanzarías a un niño solo al “mundo de Twitter” para aprender y esperar que sea una buena persona.

En los humanos tenemos mecanismos de protección para esto, los niños son mucho más capaces de aprender que los adultos, incluso hay habilidades que solo se pueden aprender de niños (como el oído perfecto, por ejemplo). A medida que crecemos, la plasticidad cerebral se reduce, esto hace que los adultos sean más rígidos y menos adaptables, pero protege al cerebro del trauma y de ser demasiado influenciados y aprovechados (reprogramados). Pero aunque se reduce con el tiempo, nuestra plasticidad cerebral sigue siendo alta incluso en personas mayores, lo que significa que un “perro viejo puede aprender trucos nuevos”, aunque sea más difícil. Esto va en contra de los incentivos actuales de la IA, nadie quiere una IA que necesite ser entrenada como un niño, protegida y cuidada durante mucho tiempo y que pueda ser fácilmente influenciada y engañada para volverse “malvada”. Así que la investigación se inclina más hacia optimizaciones del entrenamiento para tareas específicas, IA más estrecha, que es mucho más útil a corto plazo.

Conclusión

Espero que esto no te asuste ni te moleste demasiado, la búsqueda del conocimiento y la búsqueda por resolver problemas complejos como la AGI son intrínsecas a la naturaleza humana. Evitar ciertas áreas de investigación por miedo o preocupaciones éticas no ayudará a nuestra causa; nos expondrá a más peligros. Nuestra responsabilidad radica en adquirir tanto conocimiento como sea posible y gestionar cómo lo utilizamos, asegurando que las tecnologías que desarrollamos sean usadas éticamente y para el beneficio de la sociedad, o no utilizadas en absoluto.

Más importante aún, detrás de toda la emocionante “ciencia ficción” y futurismo en este artículo, yace una forma de pensar que es de gran importancia. Nuestros sesgos e incentivos están siendo explotados en nuestra contra a diario y en masa. El pensamiento crítico requiere que cuestionemos todo, incluyendo nuestra educación, tradiciones e incluso nuestros conceptos de bien y mal. Estamos sesgados, eso es parte de nosotros y tiene su utilidad, pero no es suficiente con solo reaccionar ya. Necesitamos autoconciencia, necesitamos profundizar, pensar más arduamente sobre nuestras decisiones importantes, individualmente y como especie. Es muy difícil, pero estamos subiendo de nivel, intentar regresar a una ignorancia dichosa nunca fue una opción. Así que tratemos de mirar al futuro con emoción, hay muchas cosas geniales que pueden surgir de nosotros pensando más profundamente.

Muchas gracias por acompañarme en esto. Espero que haya sido entretenido. Si quieres discutir, no dudes en ponerte en contacto.

Referencias


  1. Newell, Allen; Simon, H. A. (1976). “Computer Science as Empirical Inquiry: Symbols and Search”. Communications of the ACM. 19 (3): 113–126. doi:10.1145/360018.360022. ↩︎