La idea de un futuro justo y empático no es una utopía inalcanzable, sino una oportunidad concreta que podemos construir si adoptamos principios propositivos y aprovechamos la tecnología como un puente para superar las limitaciones humanas. En el corazón de este planteamiento se encuentra una profunda creencia: todos merecemos una segunda oportunidad. Y en un mundo impulsado por inteligencia artificial, estas oportunidades pueden no solo transformar vidas, sino también redefinir la relación entre los seres humanos y la tecnología.
Cuando alguien comete un delito, solemos mirar hacia el pasado, juzgando sus actos con dureza. Pero, ¿qué pasaría si cambiáramos la narrativa? Imagine un sistema donde quienes alguna vez infringieron la ley puedan redimirse convirtiéndose en guardianes de la sociedad, ayudando a entrenar y supervisar inteligencias artificiales diseñadas para prevenir el crimen.
Aquí es donde surge una idea audaz: un sistema en el que las personas rediman su deuda social alimentando inteligencias artificiales con la verdad, ayudándolas a identificar patrones de comportamiento que conduzcan al crimen, y actuando como auditores humanos de los sistemas automatizados. Este proceso podría tomar la forma de una “capa de juicio humano” en modelos predictivos, donde los internos voten, evalúen y filtren los hallazgos de la IA para asegurar que reflejen la realidad en lugar de perpetuar sesgos o errores.
Al igual que hoy los «Captchas» nos piden demostrar que somos humanos, estas personas estarían aportando su humanidad para evitar que la inteligencia artificial caiga en delirios o falsificaciones, ayudándola a distinguir lo real de lo ilusorio. Este acto no solo fomenta la redención personal, sino que convierte a los antiguos infractores en agentes activos de justicia, transformando sus experiencias en un recurso valioso para la sociedad.
Byung-Chul Han habla del peligro de una sociedad que prioriza la eficiencia por encima de la humanidad. Y esto es especialmente cierto en la inteligencia artificial. Sin supervisión adecuada, los modelos de IA pueden reproducir prejuicios, amplificar desigualdades o incluso «delirar» al generar falsedades creíbles. Pero cuando alimentamos estos sistemas con la realidad, fomentamos su capacidad de alcanzar verdades más cercanas y útiles. En este contexto, la idea de utilizar una red de votación supervisada por humanos para validar las conclusiones de la IA no solo es ética, sino necesaria. Imagine una red donde exdelincuentes trabajen en equipo para identificar patrones de posible criminalidad y voten sobre su legitimidad antes de que la IA los presente a las autoridades. Este proceso no solo incrementa la precisión de los sistemas, sino que también empodera a estas personas como actores de cambio social.
Michel Foucault, en Vigilar y Castigar, describe cómo las instituciones han sido históricamente diseñadas para ejercer control en lugar de liberar potencial humano. Pero esta idea puede revertirse. Las cárceles y otros espacios de rehabilitación podrían convertirse en laboratorios de justicia restaurativa, donde los internos no solo aprendan habilidades para su reintegración, sino que también participen activamente en la mejora de sistemas sociales y tecnológicos.
Un ejemplo de esto podría ser un «internet simulado» dentro de las cárceles, donde los internos accedan a contenido educativo, herramientas creativas y sistemas de IA para desarrollar habilidades. Pero no se detendría ahí: podrían ser ellos quienes prueben y alimenten los algoritmos, asegurándose de que sean precisos y justos. Esta interacción no solo les da una segunda oportunidad, sino que también convierte a las cárceles en espacios de innovación social.
En este sistema propuesto, no solo los humanos enseñan a las máquinas; las máquinas también ofrecen a los humanos herramientas para crecer. La IA puede ser una mentora, sugiriendo estrategias para resolver problemas, analizar situaciones complejas y aprender nuevas habilidades. Al mismo tiempo, los humanos aportan algo que las máquinas no pueden replicar: perspectiva, contexto y humanidad.
Este equilibrio entre lo humano y lo tecnológico es esencial para prevenir los excesos de la automatización. Como dijo Foucault, el poder no está solo en las instituciones, sino en la forma en que distribuimos y supervisamos ese poder. Si las IA son supervisadas por humanos con experiencia y compromiso, pueden ser herramientas para democratizar la justicia, no para perpetuar las desigualdades. La resiliencia comunitaria no se trata solo de resistir adversidades, sino de transformarlas en oportunidades. Y la empatía, lejos de ser un simple sentimiento, es una herramienta práctica para construir sistemas más justos. Al dar segundas oportunidades, permitir que las personas rediman sus errores y aprovechar la tecnología para el bien común, podemos diseñar un futuro donde el progreso no se mida en términos de poder, sino de propósito.
Este es un momento crítico en la historia de la humanidad. Las decisiones que tomemos hoy sobre cómo usamos la tecnología, cómo tratamos a los más vulnerables y cómo distribuimos el poder definirán el mundo del mañana. Al imaginar sistemas donde humanos y máquinas trabajen juntos por un propósito compartido, estamos dando un paso hacia un futuro donde todos tienen un lugar y una oportunidad.
La resiliencia, la empatía y la tecnología no son conceptos abstractos; son herramientas que, si se usan correctamente, pueden transformar nuestras sociedades. Es hora de actuar, no solo pensando en lo que podemos lograr, sino en cómo podemos hacerlo juntos, con propósito y humanidad.
Deja una respuesta