Нaпримeр, рoбoт пылeсoс мoжeт испытывaть рaзличныe спoсoбы влaжную убoрку, нo ему, конечно, не должны попробовать, чтобы удалить розетки мокрой тканью.Наконец, последняя из проблем, связанных с изменением среды использования роботов. Вероятно, в этом примере речь идет, среди прочего, о пыли, загнанной под ковер.Третья проблема задает вопросы в зависимости AI от обратной связи с человеком, для успешного выполнения задач. Таким образом, робот пылесос может разбить вазу, чтобы ускорить процесс очистки.Вторая проблема касается возможного мошенничества робота с ИИ. Global Look Press
Компании Google и OpenAI, в сотрудничестве с исследователями из университета калифорнии в Беркли и Стэнфордского университета сформулировали пять практических проблем, связанных с развитием машин с искусственным интеллектом. Совместное исследование компаний и университетов позволило описать конкретные проблемы, которые необходимо решать при разработке систем с искусственным интеллектом. Технические подробности работы в статье, опубликованной на ArXiv.orgи на простых примерах проблемы описал на блоге Google один из авторов исследования Крис Ола.Как отмечается в публикации, до сих пор много дискуссий об опасности искусственного интеллекта, носили спекулятивный характер. Так, если очиститель будет получить рекомендацию человека в процессе работы, он должен будет использовать его, не задавая много дополнительных вопросов.Четвертая проблема связана с опасностями, которые могут представлять экспериментальные действия ИИ.