#Chatbots – egal wie einfach oder komplex gemacht sie sind – nutzen den ELIZA-Effekt: eine Wahrnehmungsverzerrung, die Menschen dazu bringt, tendenziell zu glauben, was gut formuliert ist.
https://en.wikipedia.org/wiki/ELIZA_effect
Die fatale Tendenz, Chatbots zu anthropomorphisieren, wird verstärkt, wenn in diesem Zusammenhang von „künstlicher Intelligenz“ gesprochen wird. Wenn sie LLMs verwenden, dann sagt das und nicht „KI“.
Vielleicht ist es weniger fatal, Chatbots mit Tieren zu vergleichen. @emilymbender hat dafür „stochastische Papageien“ vorgeschlagen.
Wenn ich lese, was @lcamtuf dazu schreibt, bin ich entgegen seiner Empfehlung doch versucht, Chatbots zu vermenschlichen – als Trickbetrüger.
https://lcamtuf.substack.com/p/llms-are-better-than-you-think-at
#Chatsbot #llm #bard #GoogleBard #ChatGPT #OpenAI #ELIZA #ElizaEffekt #ElizaEffect
#elizaeffect #elizaeffekt #eliza #openai #chatgpt #googlebard #bard #llm #chatsbot #chatbots
@KeithDevlin I like this statement “Humans are “hard-wired” to ascribe understanding (and a whole lot more) to any agent that interacts with us using language” - yes there are so many people suffering from the #elizaeffect, in particular if they prefer #wishfulthinking to #analyticalthinking.
#analyticalthinking #wishfulthinking #elizaeffect
Looks like someone took a masterclass in "Exploiting the #ElizaEffect for ruthless marketing"...
@rstockm Du sagst, dass du weißt, dass Midjourney ein Programm ist, aber gleichzeitig sprichst du diesem Programm eine Seele, Talent und Kreativität zu und genderst es. #elizaeffect
Midjourney versteht nicht, was es tut. Es kann Strings zu geklauten Bildelementen und Stilen zuordnen. Aber es besitzt kein Wissen über die Welt.