Blueberry писал(а): ↑Вс фев 19, 2023 1:21 pm
Это очень опасный чат. Если ребёнок задаст вопрос, и подумает, что ему ответили как Гугл или Сири, то дело может плохо кончиться . Саркастические шутки GPT можно принять за реальную информацию.,,,
У него нет информации или способа получить ее (запрос - поиск). Есть только то, что было закачано в его db. Поэтому когда вопрос совпадает с имеющейся info, то ответ получается разумный. Но в большинстве случаев прямого и полного совпадения нет, тогда он составляет ответ, базируясь на анализе структуры фразы и наличия определенных слов. - Подбирает из заложенного (training set) что-нибудь, что имеет максимальный уровень совпадения с его результатом анализа. В результате может получиться полный бред.
Ну и на русском все еще усугубляется переводом туда-сюда.
Он не понимает о чем идет речь. Просто сводит вместе слова, которые он уже "видел вместе".
Отсюда и дополнение фраз, когда он добавляет слог или слово или несколько слов, а потом выдает ответ на то, что получилось с его добавлением.
Он выдает не инфо, а "набор подходящих слов".
Интересно, что если у него самообучающаяся функция активна, то чем больше шутливых вопросов мы ему задаем, тем больше у него должна закрепляться манера ответа/данные ответы - типа "на запрос ABC дан ответ DEF, ответ принят => на будущий вопрос ABC следует дать ответ DEF". Результат будет выглядеть как будто он научился шутить, отвечать на шутливые вопросы.
В общем, занятно, но это и все.
Поскольку никогда не известно, соответствует ли то, что он отвечает, фактам и действительности, то ни на один ответ нельзя полагаться. И ни один ответ нельзя использовать, т.к. займет больше времени проверить все, что он выдает, нежели просто найти ответ на вопрос в google.