Этический кодекс для роботов нового поколения

Разворачивается гонка, в которой люди должны идти на шаг впереди роботов: международная группа ученых собирается опубликовать "этический кодекс" для машин, которые становятся все сложнее и сложнее. Хотя кошмарная картина мира, которым правят Терминаторы, может показаться фантастикой, ученые считают, что пора установить рамки взаимодействия между людьми и роботами именно сейчас, пока разработка сверхумных роботов не вышла из-под контроля.

Джанмарко Верруджо, робототехник из Института систем интеллекта в Генуе, является главным создателем руководства, которое опубликуют в июле. Верруджо и его коллеги обозначили ключевые сферы: обеспечение контроля человека над роботами; предотвращение незаконного использования; защита информации, приобретенной роботом; четкая идентификация и возможность слежения за машинами. В настоящее время роботы выполняют наиболее прозаичные задачи: самые распространенные в Британии роботы - это самоуправляемые пылесосы вроде Scooba, газонокосилки вроде Robomow и игрушки вроде Robosapien.

Но разрабатываются машины, которые гораздо сложнее. Национальная служба здравоохранения использует робота по имени Да Винчи для проведения хирургических операций в лондонском госпитале Guy's and St Thomas' NHS Foundation Trust. В Японии роботы вроде Asimo компании Honda и Qrio компании Sony умеют ходить на двух ногах. Ожидается, что более продвинутые версии, которые появятся всего через 20 лет, будут делать повседневную работу по дому и ухаживать за стариками.

Таким образом, новые этические рекомендации для роботов выглядят так:
- Личная безопасность: обеспечить контроль человека над роботом;
- Общественная безопасность: предотвратить противозаконное использование;
- Личная информация: защитить данные, которые хранит робот;
- Возможность слежения: регистрировать действия робота;
- Идентификация: снабдить каждого робота удостоверением личности.

Законами же для роботов должны являться следующие положения:
- Робот не может травмировать человека или своим бездействием способствовать причинению вреда человеку;
- Робот должен подчиняться приказам человека, если они не входят в противоречие с первым законом;
- Робот должен защищать себя, если это не входит в противоречие с другими законами.

©1997-2024 Компьютерная газета