Компания OpenAI планирует научить искусственный интеллект награждать себя за каждый правильный шаг рассуждений, а не только за окончательный вывод. С этой стратегией, по мнению разработчиков, "цепочки мыслей" искусственного интеллекта будут походить на человеческие.

Исследователи отметили, что искусственный интеллект может давать ложную информацию, когда не уверен в точном ответе или в ситуациях, требующих сложного логического рассуждения. Для заведомо ложных данных даже был создан отдельный термин — "галлюцинации".

"Эти "галлюцинации" вызывают много проблем в областях, требующих многоступенчатых рассуждений, поскольку одной логической ошибки достаточно, чтобы сорвать гораздо более масштабное решение", — комментируют ситуацию специалисты.



Получать все новости оперативно в Viber.