Confundimos unha resposta coa "resposta" dun idiota mentiroso

Submitted by admin on Thu, 08/31/2023 - 11:27

A toponimia galega está chea de falacias, que agora se estudan co ChatGPT: A principal é que confundimos unha resposta calquera coa "resposta" (correcta ou verdadeira).

Lemos algo do  ChatGPT es para idiotas

El poder de la narrativa

Otra posible explicación de por qué nos encantan los chatbots es que nos encantan las explicaciones. A un nivel humano básico, es muy, muy satisfactorio cambiar el desconcierto por la certeza. Nos hace sentir inteligentes y en control de cosas que no controlamos.

El problema es que no sabemos realmente qué hace que la gente prefiera una explicación a otra. Algunos estudios sugieren que las explicaciones más poderosas son las más sencillas y aplicables en general ...

Maldito vago

Así que los chatbots mentirán y se equivocarán. Lo que más me preocupa es que los usuarios de Google y Bing lo sepan y no les importe. Una teoría de por qué la desinformación y las noticias falsas se extienden es que la gente es francamente perezosa. Compran lo que vende una fuente de confianza.

Hace unas semanas, pedí ayuda al sociólogo Watts para un artículo sobre por qué la gente cree en extravagantes teorías conspirativas. Me sugirió que leyera un artículo de hace 25 años de Alison Gopnik, psicóloga de la Universidad de California en Berkeley, titulado La explicación como orgasmo.

Gopnik es conocida por su trabajo sobre la psicología evolutiva de los niños. Según sus estudios, los niños pequeños crean modelos mentales del mundo utilizando observaciones para probar hipótesis: el método científico, en esencia. Pero en sus artículos sobre estas explicaciones, Gopnik sugiere que los humanos tienen dos maneras para averiguar cómo funciona el mundo. 

Uno consiste en preguntarse por qué las cosas son como son. La otra sirve para desarrollar explicaciones: es algo así como un "sistema ajá", que alude al momento en el que sentimos que algo hasta ese momento desconocido cobra sentido. Según Gopnik, al igual que nuestros sistemas biológicos de reproducción y orgasmo, estos dos sistemas cognitivos están relacionados pero separados. Podemos hacer uno sin hacer el otro, aunque el segundo es el que nos hace sentir bien y es una recompensa por el primero.

Porque al "sistema ajá" se le puede engañar. Las experiencias psicodélicas pueden inducir una sensación de que todo tiene sentido, aunque no produzcan una explicación articulable de cómo. Los sueños también pueden hacerlo. ...

No importa si el chatbot dice la verdad o alucina. 

En otras palabras, la agradable sensación de que algo cobre sentido puede abrumar a la parte de nuestra mente que tenía la pregunta en primer lugar. Confundimos una respuesta con la respuesta

No debería ser así. En 1877, un filósofo llamado William Clifford escribió un artículo titulado The Ethics of Belief (La ética de la creencia) en el que sostiene que la creencia debe proceder de una investigación paciente, no solo de la supresión de la duda. Nuestras ideas son propiedad común, insiste, una "herencia" que se transmite a las próximas generaciones. Es "un terrible privilegio, y una terrible responsabilidad, ayudar a crear el mundo en el que vivirá la posteridad".

La tentación de eludir esa responsabilidad es poderosa. Clifford, como Gopnik, entendía que las explicaciones sientan bien incluso cuando están equivocadas. "Es la sensación de poder unida a la sensación de conocimiento lo que hace que los hombres deseen creer y teman dudar" , argumenta Clifford.

Clifford ofrece un antídoto contra esta tentación. Su respuesta es, básicamente, que hay que resistir la tentación: hoy no, Satanás. "La tradición sagrada de la humanidad", dice, "se basa no en proposiciones o afirmaciones que deban ser aceptadas y creídas simplemente con la autoridad de la tradición, sino en preguntas correctamente formuladas, en concepciones que nos permitan hacer más preguntas y en métodos que sirvan para responder a esas mismas preguntas". ...

    Pocos días después de que Google y Microsoft anunciaran que ofrecerían resultados de búsqueda generados por chatbots —un software que a través de la IA es capaz de producir una prosa que suena increíblemente humana— me preocupaba que nuestros nuevos ayudantes robóticos no fueran de fiar. Después de todo, los propios investigadores de IA de Google han advertido a la empresa de que los chatbots serán "loros estocásticos" (propensos a graznar cosas erróneas, estúpidas u ofensivas) y "propensos a alucinar" (susceptibles de inventarse cosas, vamos). 

    Los bots, que se basan en lo que se conoce como grandes modelos lingüísticos y "están entrenados para predecir la probabilidad de ciertas expresiones", escribió el año pasado un equipo de DeepMind, la empresa de IA propiedad de Alphabet, en una presentación sobre los riesgos de los LLM. "Sin embargo, que una frase sea o no probable no indica de forma fiable que sea correcta".

    Estos chatbots, en otras palabras, no son realmente inteligentes. Son, de hecho, unos idiotas mentirosos.

    Y así es como nos han atrapado. Los chatbots son motores de mierda construidos para decir cosas con una certeza incontrovertible y una falta total de experiencia. No es de extrañar que la élite tecnológica diga hablen de ellos en broma como mansplanning as a service. Y ahora van a dirigir la principal forma en que los humanos adquieren conocimientos día a día.

    Entonces, ¿por qué nos tragamos su mierda? Aunque sepamos desde el principio que nuestros nuevos robots bibliotecarios son profundamente defectuosos, seguiremos utilizándolos millones y millones de veces cada hora, y actuaremos con arreglo a las respuestas que nos den. 

    ¿Qué hace que los seres humanos confiemos en una máquina que sabemos que no es de fiar?

    Para ser sinceros, nadie sabe realmente por qué alguien cree en algo. Tras milenios de debate, los principales filósofos, psicólogos y neurocientíficos del mundo ni siquiera se han puesto de acuerdo sobre el mecanismo que hace que la gente llegue a creer en cosas. Ni siquiera hay consenso sobre qué es exactamente una creencia. Así que es difícil saber cómo funcionan los dogmas de fe o por qué una cosa es más creíble que otra. Pero tengo algunas conjeturas sobre por qué vamos a caer en el truco de ChatGPT.

    En fin, A los humanos nos encantan los estafadores astutos y con impresionantes credenciales. Y los bots cada vez van a ser más sofisticados a la hora de timarnos. Estos chatbots, en otras palabras, no son realmente inteligentes. Son, de hecho, unos idiotas mentirosos.