Uno de los temas que preocupan en cuanto a la inteligencia artificial generativa son las llamadas “alucinaciones”, el eufemismo que se utiliza cuando la IA responde una pregunta con cosas que simplemente ha inventado. Por ejemplo, el influyente tecnólogo Gary Marcus argumentó en su blog que el problema podría no resolverse pronto, o incluso en absoluto, y dijo que estas respuestas ‘imprecisas’ o ‘fabricadas’ ocurren el 20% de las veces.
Pero, según otros expertos, lo que podría ser malo en lo que se refiere a información, no es tan malo en relación a las marcas y al marketing. Para Tim Hwang, fundador y CEO de FiscalNote, una empresas de sóftwer, datos y medios, muchas personas no logran apreciar adecuadamente que las plataformas de IA generativa no consultan sitios web para dar una respuesta 100% precisa, sino que más bien “predicen el lenguaje” y dan lo que parece una respuesta apropiada en el contexto.
“Los LLM (modelos de lenguajes grandes) son malos en todo lo que esperamos que las computadoras sean buenas” dijo Hwang, según reseña WARC. “Y los LLM son buenos en todo lo que esperamos que las computadoras sean malas”. Entonces, concluye que usar la IA como herramienta de búsqueda no es realmente una gran idea, pero “la narración, la creatividad, la estética son cosas en las que la tecnología es fundamentalmente muy buena”.
Hwang sugiere que una mejor manera de pensar sobre la IA es que los LLM son sistemas de recuperación de conceptos, no sistemas de recuperación de hechos; y esa noción se puede aplicar a las marcas. “Lo que están haciendo los LLM es, en cierto modo, perfecto para identificar, explorar y manipular marcas como concepto. Las alucinaciones son una característica, no un error”.
“Las alucinaciones son realmente, en cierto modo, el elemento fundamental de lo que queremos obtener de estas tecnologías. Creo que en lugar de rechazarlas o temerles, se deben manipular estas alucinaciones, lo que creará el mayor beneficio para las personas en el espacio de la publicidad y el marketing” dijo.
Hwang informa que es posible pedirle a la IA que alucine con su propia interfaz, y explica que a veces se necesita una especie de andamiaje sobre qué alucinar, para que revele cosas sobre la alucinación.
Ofreció algunos ejemplos. Pedir a la IA que alucine una marca como un personaje de ficción con varios atributos, de esta manera se puede extraer más intuición. O darle cualquier conjunto arbitrario de objetos y decirle que haga cosas que normalmente no se podrían medir o que sería muy costoso hacerlas como encuestas. En el caso de marketing, se le puede asignar a los objetos una determinada puntuación en función de su grado de alineamiento con la marca.
Incluso, dijo que se puede aplicar a la investigación de consumidores, por ejemplo, otorgando una puntuación a la IA y preguntar por los consumidores que tienen más probabilidades de convertirse en consumidores leales de la marca en función de esa puntuación.
En última instancia, la idea es alejarse del enfoque básico input-output e introducir variables con las que jugar y pedirle a la IA que genere lo que el usuario necesita.