“Искусственный интеллект” способен генерировать ложные наборы “высококачественных” данных для подтверждения лженаучных гипотез

Лжеученые от медицины получили очень авторитетного для себя соавтора, – “искусственный интеллект”. Оказалось, что GPT-4 ADA, последняя высокопроизводительная версия большой языковой модели OpenAI, на которой основан ChatGPT, способна генерировать ложные наборы высококачественных данных клинических испытаний, которые могли бы использоваться, например, для подтверждения научной гипотезы. Данные, сгенерированные “искусственным интеллектом” в рамках исследования по сравнению двух хирургических протоколов, ошибочно указывали на то, что один из них лучше другого.

Понятное дело “искусственный интеллект” способен по заданию своих пользователей выбрать из кучи информации имеющейся в интернете любой набор данных в пользу их теорий. Фактически работа “искусственного интеллекта” это просто цитирование и компиляция чьих-то работ. Так как в интернете бредовых и ложных работ во много раз больше, чем правдивых, то результат компиляции “искусственного интеллекта” скорее всего будет опираться именно на ложные работы, а если пользователи ещё и направляют его на поиск подтверждений своих, обычно ложных теорий, то ничего кроме лжи “искусственный интеллект” не выдаст. Проблема в том, что как бы учёные и народные массы верят, что куча компьютеров это “искусственный интеллект” и верят его выводам. Это относится не только в медицине, а к любой области современной как бы науки.

Оставить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *

Solve : *
30 − 16 =