Могут ли роботы сами решать, какие меры применять против человека
Современные системы искусственного интеллекта могут собирать огромные массивы информации, помогать в анализе и предлагать человеку оптимальные решения.
А может ли решение принять искусственный разум самостоятельно? И нужен ли нам автономный «думающий» робот.
В истории робототехники и ИИ известен трагический случай, произошедший в Ливии в этом году.
Во время вооруженного конфликта на территории этой страны военный дрон, принадлежащий Турции, находясь в автономном режиме, сам определил свою цель. Ее стал боец Ливийской армии. Квадрокоптер определил его как потенциально опасный объект, и принял решение на уничтожение.
То есть, робот САМ решил убить человека, САМ определил, какого, и САМ себе отдал команду на ликвидацию.
Ученые пока не делают выводов об опасности развития искусственного интеллекта. Однако уже сегодня понятно, что этот процесс нельзя оставлять бесконтрольным.