Может ли интеллектуальный робот обладать этическими свойствами?
Вопросы этики в развитии искусственного интеллекта (ИИ) широко обсуждаются в последние годы не только в философской, но в научной литературе. Во многом это связано с опасениями очевидных рисков и угроз, которые вызывает нарастающая цифровизация практически во всех сферах социальной жизни. Этическое исследование технологий искусственного интеллекта (ИИ) становится чрезвычайно актуальным в контексте создания системы общего ИИ, то есть агента человеческого уровня. Эта задача представляется сложной, так как этика не может представить инженерам нормативную систему в виде некой иерархизированной архитектуры для ее вычислительной реализации. В этой связи авторы видят возможность избежать указанной неопределенности при проектировании автономной системы общего ИИ с помощью построения частных моделей на основе классификатора видов деятельности, что позволит осуществить алгоритмизацию необходимых этических функций. Выделяются два обстоятельства, которые необходимо учесть в дальнейших исследованиях искусственных моральных агентов: (1) континуальность любой алгоритмической модели этической системы и (2) эффективность метода «обучения с подкреплением» при моделировании ситуации неопределенности и механизма физиологической боли, как одного из факторов формирования морального поведения.