Halluzinationen bezeichnen in der KI den Effekt, dass ein System inhaltlich falsche, erfundene oder nicht belegbare Aussagen erzeugt, diese aber sprachlich korrekt und überzeugend präsentiert. Besonders bekannt ist das Phänomen bei Sprachmodellen.
Signature: OPVbZtLiM3lGkc6lrcOCrLgY1pancO9UlVXtKDcMREDAbrW0Fu6TUGswQYXOg2BNq2nD9qVlC51gEVdrz00D3f6UCmNGE9RdGYaLjnQAZ0mZz11gxJKGQc1vWjnhzsYjgMGtrcw1BVPpJct61vdJ99iPoglrcsNKv6Hrf0wqQCPh4piCIFe4L9oM0C6rp1mK2pGVaIe2MLO8uYY8BI6PIe185vAguY6dIMqvqIMo3qGRz8WjePtVYT1vgElCBdXpVdtXh8xqaJYPVyEW+LSHfg==