

La Academia de Ciencias Sociales y Humanidades del Estado de Morelos (ACSHEM) presentó en el auditorio César Carrizales de la torre de rectoría de la UAEM, los cuadernos 6 y 7 de su serie editorial. las publicaciones dedicadas a la reflexión sobre la inteligencia artificial (IA) desde diversas perspectivas, representan un faro a nivel nacional e internacional en la producción científica regional en el ámbito tanto de las Ciencias Sociales como de las Humanidades
En la ceremonia encabezada por Gabriela Mendizábal Bermúdez, presidenta de la Academia, se resaltó la importancia de esta publicación anual como un espacio de difusión de acceso abierto a la comunidad académica y al público en general, estos cuadernos, menciona, buscan fomentar el debate y la colaboración en torno a los temas contemporáneos que se están generando alrededor de la inteligencia artificial, en donde la información ha alcanzado niveles sin precedentes, abriendo nuevas posibilidades para explorar fenómenos de procesamiento, almacenamiento y transmisión de la misma. “Más que un artículo académico, son una serie de ensayos que invitan al lector a reflexionar sobre el uso de estas herramientas generativas de IA […] y cómo estas mismas están transformando diferentes aspectos de nuestra vida cotidiana”. La presentación se llevó a cabo en dos partes en dónde los autores nos compartieron un poco de sus trabajos, a continuación, mencionados:

Inteligencia artificial reflexiones desde las Ciencias Sociales
La presentación del cuaderno 6, Inteligencia Artificial: Reflexiones desde las Ciencias Sociales a cargo de Alfonso Valenzuela Aguilera, destacó que aunque se trata de un documento digital, su diseño es legible y accesible para el público en general, “los capítulos exploran cómo la IA no solo transforma áreas de nuestro cotidiano, sino también áreas como la planificación urbana, la salud y el mercado laboral, planteando grandes desafíos normativos y éticos”.
Juan Manuel Ortega, primero en tomar el micrófono, advirtió sobre los peligros de dejar que la inteligencia artificial avance sin una regulación adecuada, poniendo como ejemplo el caso de hace unos años atrás en Europa, donde dos robots desobedecieron las órdenes programadas, empezado a genera su propio lenguaje de comunicación y tuvieron que ser desconectados, lo que evidencia los riesgos de esta tecnología. Ortega señaló que, mientras países como Estados Unidos y Europa ya están tomando medidas para regular la inteligencia artificial (Ley de IA, aprobada por el parlamento europeo el pasado 13 de marzo, y puesta en vigor el 1 de agosto del presente año), México se está quedando atrás en este aspecto. Terminó su participación reflexionando sobre cómo la IA, aunque extremadamente eficiente, carece de emociones, advirtió que, si no se toman las riendas de esta tecnología, corremos el riesgo de perder el control sobre sus implicaciones, su mensaje fue claro: “es necesario actuar ahora para asegurarnos de que la IA trabaje a nuestro favor, sin deshumanizarnos en el proceso”.
En el ensayo Reflexiones sobre la IA y la salud, Martha Híjar Medina nos habla desde el ámbito de la salud pública. En este campo, destacó que la IA ha transformado aspectos clave como la telemedicina, la robótica y los estudios genéticos, mejorando la atención médica, sin embargo, también advirtió sobre la falta de datos suficientes y contextualizados en el sistema de salud en México, lo que puede afectar la precisión de los diagnósticos. Señaló que muchas personas buscan diagnósticos en internet basados en datos fuera de contexto, lo que puede llevar a errores, aunque la IA ha demostrado ser una herramienta valiosa, no debe olvidarse el componente ético, señala. “Es esencial que el uso de IA no incremente las desigualdades en el acceso a la salud, además, la IA no puede sustituir el trato humano y empático que ofrecen los médicos, especialmente en áreas sensibles como la salud mental, donde aún queda mucho por investigar”.

En Inteligencia artificial, discapacidad y epistemología Alejandro Cerda García, acerca la discusión hacia temas en relación con la discapacidad, tomando como punto de partida el programa “Universidad incluyente y accesible” de la UAM Xochimilco. El autor cuestiona quién diseña los algoritmos que utilizan estas tecnologías, ya que estos algoritmos, esenciales para el funcionamiento de la IA, no siempre incluyen la diversidad humana. Muchas veces excluyen a personas con discapacidad, de la diversidad sexual o étnica, porque sus experiencias y conocimientos no están representados en las bases de datos que la IA utiliza. Esto plantea una pregunta crucial: ¿somos usuarios pasivos de una tecnología creada por otros, o podemos participar activamente en su desarrollo, entendiendo y generando nuestros propios algoritmos? El autor subraya la importancia de una IA crítica, inclusiva y ética, que no refuerce desigualdades, y sugiere que la comprensión y creación de algoritmos incluyentes debería ser parte integral del proceso de construcción de conocimiento.
IA: reflexiones desde las Humanidades.
María Luisa Zorrilla Abascal encargada de coordinar el cuaderno 7 IA: reflexiones desde las Humanidades, comparte al auditorio que estos cuadernos son una recopilación del coloquio de otoño del pasado año, en dónde se abordaron reflexiones críticas que cuestionan su impacto en las decisiones del ser humano y cómo afectan diversas prácticas, especialmente en disciplinas humanísticas y labores creativas; menciona también que este cuaderno ofrece algunas visiones más concretas, incluyendo un análisis sobre la lógica binaria de la IA frente a la inteligencia humana, y una mirada optimista sobre su uso.
En La racionalidad irracional, Vicente Arredondo Ramírez reflexiona sobre cómo la IA aunque impulsada por los avances de la racionalidad científica, plantea serios riesgos si no se gestiona adecuadamente, explica que el ser humano ha logrado enormes avances en campos como la biotecnología, nanotecnología y cibernética, pero advierte que la IA podría llegar a generar sus propios conocimientos, lo que podría conducir a usos irracionales que afecten negativamente a la sociedad. Arredondo subraya la necesidad de no dejarnos deslumbrar por las tecnologías basadas en Big Data y de evitar su uso con fines de control y manipulación.
Karla Graciela Cedano Villavicencio, habló sobre los riesgos de la creciente dependencia de la IA y la propaganda que la rodea, en si ensayo Artificial, ¡sí! inteligencia ¡nunca!. Señala cómo, aunque la IA ha sido alabada por sus avances, incluso en premios Nobel recientes, existe una creciente brecha entre quienes controlan estas tecnologías y el sur global, que a menudo se ve explotado. Cedano Villavicencio critica la falta de consentimiento en el uso de estas herramientas, obligándonos a interactuar con ellas sin opciones claras, y advierte sobre el enorme consumo de recursos y la injusticia ambiental que esto conlleva. Además, cuestiona la reducción de decisiones complejas a simples operaciones binarias, destacando que la IA no puede igualar la inteligencia humana ni de otras especies.
Para finalizar la presentación (más no la reflexión), María de la Cruz Bernarda Téllez Alanís reflexiona sobre su experiencia como psicóloga en el ámbito de las neurociencias y la IA, explica que las charlas en torno a la liberación de estas herramientas de IA al público, planteó la preocupación sobre la utilización de estos algoritmos que simulan la inteligencia humana alimentadas por información previa, subraya la posibilidad que pudieran presentar las IAs de tomar decisiones y, potencialmente, conciencia, lo que plantea interrogantes éticas y filosóficas sobre la voluntad humana.
