Это проблема единого интерфейса. То есть мы когда употребляем информацию, мы рассматриваем кучу внешнего контекста в попытке понять инфа треш или сотка. И живем в пузырях. А GPT всосало всё без разбору с бесчисленными попытками его немного подтюнить вручную. Поэтому есть риск что люди будут верить большинству предоставленного ChatGPT и соответственно есть риск смешивания пузырей… Когда GPT отвечает на технический вопрос вроде «составь план» или «напиши кусок кода» это окей, но я бы опасался верить ответу на какой-то общий вопрос ))
Была недавно новость что кто-то звонил организацию (газета или подобное) и спрашивал, почему статью с сайта потерли!? А её и не было никогда, ChatGPT выдумал ))