Chatbots. Por Pedro Chavarría. 5 IV 23
.
En muchas publicaciones se habla de los chat bots y se han convertido en una gran noticia
dadas sus amplias y sorprendentes aplicaciones. Hace ya muchos años surgieron las primeras
versiones, desde luego, con poderes muy limitados en comparación a lo que ahora se
anuncia. Recuerdo en especial una versión en la que el usuario podía “hablar” con un
psicoanalista, representado por la figura de Sigmund Freud. Podía uno hacerle preguntas y el
sistema respondía de modo aparentemente coherente. En realidad el programa tomaba las
últimas palabras de la pregunta y con ellas formulaba un comentario, o una nueva pregunta,
por lo general pidiendo una ampliación y así daba la impresión de llevar una conversación.
Después de un rato de estar usando el programa, muchas personas llegaban a pensar que de
verdad hablaban con una persona, aun cuando sabían que era un programa de computación.
En ese entonces, tendrá más de 30 años, la idea de poder hablar con una máquina era algo
todavía lejano. Las máquinas podían contestar preguntas, pero lo hacían de manera mecánica,
seleccionando de entre unas base de datos la respuesta que correspondiera. El usuario podía
seguir preguntando y la máquina respondiendo, pero no había una interacción real, de modo
que era fácil darse cuenta que del “otro lado” solo había un selector automático de respuestas.
Todavía más antes se había diseñado una prueba, allá por 1950, Alan Turing propuso poner
a prueba las capacidades de una computadora para hacerse pasar por un humano. Para poner
en estudio la posibilidad de que el pensamiento solo fuera resultado de procesos
computacionales, en 1980 el filósofo John Searle ideó un experimento mental llamado “la
habitación china”, donde una persona dentro emitía papeletas por una rendija, con resultados
impresos a preguntas específicas, estas escritas en chino, y dentro de la habitación una
persona que no sabe chino, pero que tiene manuales que le dicen qué respuesta emitir ante
ciertos caracteres chinos que él no entiende en realidad.
Entre el que pregunta y el que responde se da un intercambio de papeletas impresas y de ello
la persona del exterior debe concluir si quien está dentro sabe, o no, chino. El intercambio
pregunta (papeleta en chino)-respuesta (papeleta traducida al inglés, o cualquier otro idioma)
es resultado de procesos automáticos predeterminados y en realidad no suponen que quien
responde realmente entienda el chino. Algo parecido hacen los chatbots actuales, aunque,
claro, con más sofisticación. En realidad, tanto la prueba de Turing, como la “habitación
china” han estado sujetas a innumerables discusiones y experimentos mentales y no mentales.
En el fondo de la discusión yace el problema de lo que es el pensamiento y cómo se puede
simular (¿o representar?) mediante procesos automáticos que en realidad no requieren pensar.
El caso es que ahora los chat bots han surgido de manera impactante, y tanto la compañía
Open AI y Google ofrecen ya versiones públicas de sus sistemas. Se puede chatear con GPT4
y se obtienen resultados impresionantes. La máquina contesta de manera personal y se puede
interactuar con ella, ya que esta misma nos puede hacer preguntas y seguir el hilo de una
conversación. Las respuestas son coherentes y atinadas y la propia máquina, según la versión
usada, se declara incompetente e ciertas áreas, como en lo que se refiere la actualización de
datos, pues cuenta con información hasta 2021 (Chat GPT 4), sin embargo, un modelo de
Google sigue actualizándose continuamente desde la red.
Probablemente muchos de nosotros ya hemos interactuado con estos y otros bots y no lo
hemos detectado. Hasta ahora se han dedicado a labores relativamente sencillas, como
programar citas, reservar boletos y otras similares. Eso ha hecho posible extender los
servicios 24hs al día, todos los días. Una versión más sofisticada del cajero automático. Si
ahora Ud muestra interés en comprar un auto y explora la información en la página web, de
inmediato aparece un mensaje de un empleado “virtual” listo para atenderlo a cualquier hora,
sin necesidad de tener a una persona dando informes relativamente simples y repetitivos.
Hasta aquí parece muy buena opción, pero hay mucho más. Han aparecido bots más
poderosos, capaces de hacer diagnósticos médicos, a partir de la descripción no técnica que
los propios pacientes pueden hacer a partir de lo que sienten y ven. El porcentaje de
diagnósticos certeros es mayor que el de los “sistemas expertos” de antes, aunque aún no
alcanzan a los médicos humanos (88% contra 96%). Estos sistemas, que pertenecen al grupo
de “Grandes Modelos de Lenguaje”, son alimentados con grandes bases d datos de cómo
hablan, contestan y preguntan los humanos, de modo que pueden emularlos con alto grado
de éxito. Sería una buena ayuda usarlos como filtros para la atención médica persona a
persona, de modo que los pacientes llegaran mejor clasificados.
Pero hay varios inconvenientes. En primer lugar, las respuestas no siempre son congruentes.
En segundo lugar, los bots en ocasiones inventan datos para sustentar sus afirmaciones, y lo
peor es que las elaboran tan bien, que parecen reales. Sería una gran carga de trabajo para los
médicos revisar y encontrar estos posibles errores. Por otro lado, los bots tienden a mostrar
sesgos y prejuicios: prescriben menos analgésicos a mujeres, diagnostican más esquizofrenia
en pacientes negros y otras desviaciones provenientes de prejuicios raciales y de género.
Paradójicamente, tienden a generar más confianza en los pacientes que los propios médicos,
de modo que los pacientes podrían revelar datos sensibles, algunos intrascendentes, como
problemas familiares menores, otros más riesgosos, como la dirección IP de su computador,
o su localización geográfica. Aparece entonces un nuevo concepto: “empatía vacía”,
¿simpatizas con un programa de computación?
Tampoco sabemos qué clase de orientación puedan dar a un paciente con problemas como
angustia y depresión, o ideas suicidas, ni hasta dónde sus diagnósticos y consejos puedan
impactar negativamente a personas susceptibles. Por lo pronto, se aconseja no usarlos en
problemas graves, o que impliquen riesgos para la vida, por lo que no se recomienda
aplicarlos para generar instrucciones a seguir en procedimientos médicos. Sin embargo, han
alimentado a estos sistemas con preguntas y respuestas reales de exámenes oficiales en
Estados Unidos de Norteamérica empleados para certificar profesionistas y adjudicar
licencias para el ejercicio de la medicina, y los han aprobado, de modo que no son nada
improvisados, sino que muestran competencias reales y sólidas.
Estamos ante entidades creadas por nosotros, que aparentan rasgos humanos y hasta simpatía,
que son capaces de desplegar mayor paciencia que los médicos humanos, que no se fatigan,
que no sienten la presión del paso del tiempo, que no se angustian por los problemas de sus
pacientes y que tienen un bagaje teórico impresionante. ¿Y cuando haya robots humanoides
equipados así? Pero no solo en medicina, ya componen música, generan pinturas y crean
obras literarias. Ya es posible encontrar una amplia variedad de libros que instruyen acerca
de cómo usarlos para generar discursos, presentaciones, libros enteros. Ahora es posible
escribir un libro sin tener que escribir ni que pensar nada, solo hay que saber dar los “prompts
o instrucciones-temás básicos y el chat escribe el ensayo correspondiente, con la posibilidad
de replantear o modificar los alcances y alternativas de textos que solo surgieron de una idea
general, plasmada en un renglón y que esa persona, que solo dio la idea, se adjudicará.
Habría que replantearse muchas cosas. ¿Qué tan válidos serán ahora los trabajos escolares de
investigación, si ya el copy-paste los había vuelto dudosos? ¿Y las tesis, de licenciatura,
maestría o doctorado? ¿O las obras literarias atribuibles a autores humanos? Ahora resulta
que aparecen nuevos” autores” que no son autores. Algunos ya los citan en sus trabajos como
coautores. Otros alegan que no pueden ser coautores porque no son sujetos responsables.
Otros dicen que deben citarse los pasajes que hayan creado y atribuírselos al sistema. Si ya
antes teníamos problemas con el plagio, que nunca ha sido fácil de fundamentar, ahora hay
bots especializados en parafrasear, de modo que desaparezca el posible plagio. Si ya teníamos
problemas con los “escritores fantasma” que apoyan a todo tipo de políticos y otras
personalidades públicas y que escriben a su nombre, a veces en completo anonimato
remunerado, ¿qué haremos ahora que el escritor fantasma se ha digitalizado y sus honorarios
corresponderán al pago del software, cuando no sean gratuitos?
Y si damos en encomendar las partes más difíciles y creativas a estos bots ¿dónde irá
quedando nuestra capacidad de creación. Es cierto que estos sistemas son capaces de ver
información y lazos ocultos en grandes volúmenes de información, pero eso no quiere decir
que descansemos en su capacidad discursiva para evitarnos el trabajo de pensar. Si las
máquinas virtuales, porque ni siquiera son físicas, serán las encargadas de “pensar” o crear
nueva información recombinando datos aparentemente inconexos ¿cuál será nuestro papel?
Podría argumentarse que esas máquinas requieren creadores y programadores para surgir y
dar servicios oportunos, pero ¿cuántos tendríamos esa capacidad?
Y todavía más: ¿y si las propias máquinas planean y construyen nuevas máquinas capaces de
desplazarnos, al menos en el tiempo de procesamiento? Y los que no podamos crear y
programar esas máquinas ¿qué haremos? Ya ni apretar botones, porque las propias máquinas
lo hacen y de mejor manera que nostotros. Entre menos pensemos, menos pensaremos.
Estaremos perdiendo capacidad cerebral y estaríamos ante lo que se ha llamado la
“singularidad”, cuando las máquinas sean más inteligentes que nosotros. Quizá entonces
decidan que no nos necesitan más, que incluso somos un estorbo y una inconveniencia y nos
exterminen. Quizá entonces dependamos como nunca de “Las tres leyes de la robótica”
propuestas por el escritor de ciencia ficción Isaac Asimov (ver “Yo robot” e “Historias de
robots”), una de las cuales dice que “un robot jamás producirá daño a un humano, ni dejará
que ocurran esos daños por su inacción”, palabras más, palabras menos. ¿Podremos confiar
en que esa ley se cumpla? ¿O estarmos ante una etapa nueva, insospechada hasta hace poco,
etapa evolutiva de los seres antes solo vivos, y ahora con vida e inteligencia artificial?
Ya Alemania e Italia planean prohibir estos bots (ver https://www.trt.net.tr/espanol/cienciay-tecnologia/2023/04/04/alemania-podria-prohibir-el-chatbot-de-inteligencia-artificialchatgpt-al-igual-que-italia-1969673). Ud, que hace el favor de leerme, qué piensa.