Durante meses se vienen difundiendo imágenes, textos y audios generados por inteligencia artificial que son muchas veces tomadas y compartidas como verdaderas en las redes sociales. El uso que está teniendo esta nueva tecnología abre muchos interrogantes en un contexto en el que las estafas telefónicas y la difusión de fake news ya eran un problema.
Tomás Balmaceda es doctor en Filosofía y desde hace años viene estudiando los usos y consumos de las nuevas tecnologías. En diálogo con NEA HOY, analizó esta nueva fascinación por la Inteligencia Artificial y las precauciones que hay que tener sobre su uso.
NEA HOY: En algunas de sus charlas usted emplea el método novedoso de ir hacia el pasado para leer las tecnologías del futuro. ¿De dónde proviene la idea de generar entidades con una inteligencia que se asemeja a la humana?
Tomás Balmaceda: Yo creo que esa fascinación, esa voluntad humana de crear vida, o crear cosas que se parezcan a la vida y a nosotros mismos es muy antigua. Uno lo puede ver en el mito de Pandora, en el mito de Pigmalión.
Y esto no tiene que ver ni con la magia ni con las creencias religiosas, sino que desde hace muchos siglos, hombres y mujeres queremos construir cosas que se nos parezcan. Tal vez para sacarnos de nuestra soledad, tal vez para que puedan hacer el trabajo que no nos gusta. Hay muchas motivaciones, pero es algo bien documentado y que siempre hemos tenido esa voluntad.
Quizás hoy en el siglo XXI nos acercamos a poder crear algo similar a eso. Estamos lejos de poder crear vida, estamos lejos de poder tener dispositivos o robots que sean completos o que sean autónomos. Sin embargo, sí es cierto que nos acercamos en muchas ocasiones a algunas de sus funciones o algunas de sus respuestas.
NEA HOY: Esta fascinación que ves que las personas tenemos hacia la tecnología, ¿se debe a las potencialidades de su uso, hacia las facilidades que brinda, a un objetivo de acumular con ello más poder o capital o es simplemente una fascinación hacia aquello que es novedoso?
Tomás Balmaceda: Creo que se junta un poco de todo. Me parece que los humanos somos animales muy curiosos.
Dentro de esa curiosidad, cuando nos topamos con, justamente, dispositivos o artefactos que nos generan perplejidad, porque son increíblemente nuevos, porque nos ofrecen salidas que no hubiésemos imaginado, creo que en ese ámbito siempre nos intrigan y nos acercamos cuando vemos que pueden realizar cosas que creíamos que solo los humanos podían realizar.
Ahí también hay una cierta fascinación, y creo que también eso hace que las personas muchas veces evalúen mal la tecnología, y piensen, por ejemplo, que pueden hacer más cosas de las que efectivamente pueden hacer.
A veces eso hace que haya una adhesión, o el abrazar la tecnología de manera no crítica, y pensar que, si lo hace la tecnología, posiblemente lo haga mejor que los seres humanos, posiblemente no cometa errores, posiblemente no tenga sesgos, posiblemente no tenga prejuicios, no tenga emociones, y evaluamos eso como muy positivo.
Y lo cierto es que la tecnología es producto de nuestro hacer, de nuestro diseño, de nuestra inteligencia, y que siempre tiene los valores de la sociedad que la crea y que la usa.
NEA HOY: ¿Y cómo cree que impactará en nuestra sociedad estos nuevos usos de la inteligencia artificial que estamos viendo últimamente?
Tomás Balmaceda: En los últimos meses explotó este tipo particular de inteligencia artificial, la generativa ya que genera cosas, textos, imágenes e incluso voces y canciones. Es un pasito más acerca de otras aplicaciones que teníamos. Estamos todos enamorados, embelesados del ChatGPT, pero lo cierto es que también deberíamos estar preocupados. No alarmados, pero si preocupados porque abre la puerta a un montón de interrogantes y usos que no siempre son los mejores.
Yo creo que en este año electoral, en Argentina y en otras partes del mundo también, vamos a empezar a ver manipulación de las imágenes, de los audios, de algunas declaraciones, por ejemplo, de políticos o de candidatos en medio de la campaña electoral.
Alguien que por correo electrónico te comparte por ejemplo una foto que te dice “esta foto no quieren que se sepa nadie”, y ves a un candidato cometiendo un delito. O, por ejemplo, audios de whatsapp que parecen claramente la voz de un candidato diciendo una cosa, y no es cierto.
Creo que nos vamos a acercar a esos usos que no están tan buenos. Quizás, incluso, a la hora de hacer fraude o ser víctima de fraudes, la voz de mi mamá pidiéndome dinero, la voz de un amigo pidiéndome que lo ayude, o la voz de un compañero de trabajo pidiéndome la contraseña de un equipo de mi empresa.
Creo que eso lo vamos a estar viendo. Pero también usos un poco más razonables que tiene que ver con ciertas tareas sistematizables en nuestras labores. Una inteligencia artificial va a ser mejor para poder ayudarnos y darnos una mano, no para hacerlo de manera completa, pero sí para sacarnos de la página en blanco, ayudarnos a entender. Creo que vamos a un mundo donde eso va a ser más presente.
NEA HOY: ¿Y cómo debemos estar preparados para evitar ser víctimas de estafas o evitar creer y compartir en redes sociales éstas imágenes creyendo que son reales?
Tomás Balmaceda: De alguna manera creo que tenemos que entrar en una nueva era de educación, de formación ciudadana en donde todas las personas tenemos que activamente educarnos en poder entender los alcances de esta tecnología y cómo podría utilizarse para la manipulación y el delito.
No se trata simplemente de pensar que es un peligro y ya, o alarmarse sin tomar acción. Creo que es una buena manera, o una buena excusa para poder retomar y revisitar cuál es la formación cívica de nosotros como ciudadanos y como usuarios de éstas plataformas.
Para mí, lo central es la actitud crítica, que de hecho, es una actitud que solo tenemos los humanos, no podrían hacerlo las máquinas. Esto quiere decir entender las potencialidades, entender exactamente qué es lo que hace y qué es lo que no.
Es difícil saber si el Chat GPT me va a dejar sin trabajo o no si nunca lo usé, o si no lo usé de manera confiable, y luego tratar de entender no solamente los riesgos que puede tener sino las oportunidades, y no creer que porque algo simplemente es nuevo es bueno, o porque algo se puede hacer con inteligencia artificial se deba hacer con inteligencia artificial.
ADEMÁS EN NEA HOY:
De plantas medicinales a repelentes para combatir el dengue: ¿qué se investiga en el NEA?
El CIT Formosa impulsa generación y transferencia de conocimientos para el sector agropecuario
Sin acuerdo: así finalizó la reunión entre docentes y el Gobierno correntino