Роботтор менен күрөшүү: тыюу салынган болушу мүмкүн эмес

Мазмуну:

Роботтор менен күрөшүү: тыюу салынган болушу мүмкүн эмес
Роботтор менен күрөшүү: тыюу салынган болушу мүмкүн эмес

Video: Роботтор менен күрөшүү: тыюу салынган болушу мүмкүн эмес

Video: Роботтор менен күрөшүү: тыюу салынган болушу мүмкүн эмес
Video: KG роботтор 2024, Ноябрь
Anonim

Эксперттер Женевада жолугушкан, бирок эч кандай келишимге жетишилген эмес: АКШ менен Россия бардык жумушка тоскоолдук кылышкан. Балким, бул гегемондор ушунчалык шайкеш иштеп жаткан бирден-бир учур.

Роботтор менен күрөшүү: тыюу салынган болушу мүмкүн эмес
Роботтор менен күрөшүү: тыюу салынган болушу мүмкүн эмес

Адамзатка каршы курал жөнүндө конвенциянын форматындагы эксперттердин жолугушуулары Женевада согуштук роботтор деп аталган - жасалма интеллектти колдонгон автономдуу куралдардын тагдырын чечүү үчүн аяктады. Бирок, эч кандай келишимдерге жетишилген жок. Америка Кошмо Штаттары, Россия, Түштүк Корея, Израиль жана Австралия азчылыкты түзгөн мамлекеттердин катарында киллер роботторуна толук тыюу салуу сезимине бөгөт коюуга жетишти.

Ошентип, дүйнөдө дагы деле иштеп жаткан автономиялык курал жок болсо дагы, технология, мындайча айтканда, гумандуу бойдон калууда - аны иштеп чыгып, изилдөөгө болот. Эң кызыгы, АКШ жана Россия Стокгольмдогу Тынчтык Изилдөө Институтунун (SIPRI) маалыматы боюнча, ири курал экспорттоочулардын тизмесинин башында турат. Түштүк Корея, Израиль жана Австралия дагы бул рейтингден калышпайт - алар базардын алдыңкы 20 оюнчусунун катарына кирет.

Жана Кытай (дүйнөдөгү бешинчи курал экспорттоочу, БУУнун Коопсуздук Кеңешинин туруктуу мүчөсү согуштук роботторго тыюу салууну жактаса дагы, жолугушуулар учурунда таразаны өз багыты боюнча өзгөртө алган жок. Бүгүнкү күндө 26 өлкө согушта жасалма интеллектти колдонууга тыюу салуу Башкалары так позициядан алыс болушат) Франция жана Германия (үчүнчү жана төртүнчү курал экспорттоочулар) адамдын жасалма интеллекттен артыкчылыгын бекемдөөчү документке кол коюуну сунушташат, бирок алар ыктымал автономдуу согуш техникасын иштеп чыгууну каалагандар тарапта.

"Аскер дөөлөрүнүн чакан тобу көпчүлүктүн каалоосун токтото алары, албетте, көңүлдү чөгөрөт", - деди Женева жолугушууларынын жыйынтыгы боюнча "Киллер роботторун токтотуу" өнөктүгүнүн координатору Мэри Верхем.

Чындыгында, АКШ жана Россия, адатта, маанилүү маселелерде эч болбосо кандайдыр бир компромисске келе албастыгын эске алганда, кырдаал куралдуу монополиялык магнаттардын кутумуна окшоп кетет. Сириялыктарды алыңыз: Вашингтон менен Москва ушул жазда Сирияда химиялык курал колдонгондон кийин бири-биринин токтомдорун өз ара тосушту. Асфиксиациялоочу газдар жана башка уулуу заттар аскерий максаттар үчүн, буга чейин Адамкерчиликсиз Курал жөнүндө Конвенция тарабынан тыюу салынган.

Киллер роботторунун тагдыры боюнча кийинки жолугушуу ноябрда Женевада болот.

Эмне үчүн алар автономиялык куралга тыюу салууну каалашат

Робот согушуна тыюу салууну жактагандар согуш майданы жасалма интеллект үчүн жер эмес деп ырасташат. Алардын ою боюнча, мындай технологиялар чоң коркунуч туудурат. Жок дегенде, бүгүнкү күндө машина согушкерлерди (согуштук аракеттерге түздөн-түз катышкан адамдарды) согушпагандардан (өзүн өзү коргоо үчүн гана курал колдоно алган армиянын кызмат персоналы) жана жалпы эле жарандарды кандайча айырмалай тургандыгы белгисиз. Иштин натыйжасында жаракат алгандар жана багынып бергендер өлтүрүлүшү мүмкүн, буга учурдагы согуш эрежелери тыюу салган.

Иштин чыр-чатактын бардык тараптарын, жада калса мындай курал ээлерин да үзгүлтүккө учуратуусуна эмне тоскоол болот? Жасалма интеллект элементтери буга чейин аскер техникасында, ракеталарда ийгиликтүү колдонулуп келе жатат; роботтор чалгындоо үчүн тартылган, бирок акыркы сөз дагы эле адамдарга таандык. Автономиялык куралдар командирлердин буйруктарына баш ийбейт - ошондуктан алар автономдуу. Ошол себептен ар кайсы өлкөлөрдүн аскер генералдары машиналарды өздүк курамдын катарына киргизүүгө ишенбөөчүлүк менен карашат.

Дагы бир ачык суроо - эл аралык терроризм. Автономдуу курал жараксыз технология колго түшүп, акыры, аны бузуп алышы мүмкүн. Бир жыл мурун Россиянын Президенти Владимир Путин жасалма интеллектти өнүктүрүүдө лидер боло турган дүйнөнүн башкаруучусу болот деп айткан. Автономдуу куралдарда, мындай технологияларга мүмкүнчүлүк алган адам дүйнөнүн башкаруучусу болуп калат. Ал үчүн, чындыгында, сизге коопсуздук тутумдары аркылуу өтө турган компьютер жана буйтап кетүү гана керек. Баса, Пентагон бир нече жолу хакердик чабуулга кабылган. Демек, автономиялуу куралдар кол тийгис бойдон калат деп эч ким кепилдик бере албайт.

Автономиялык курал-жарак тутумунун иштешинин натыйжасында согуш кылмышы жасала турган болсо, юридикалык жоопкерчилик кимде экени дагы белгисиз. “Куралды колдонгон инженер, программист, өндүрүүчү же командирби? Эгерде жоопкерчиликти эл аралык гуманитардык укуктун талаптары боюнча аныктоого мүмкүн болбосо, анда мындай тутумдарды жайылтуу мыйзамдуу же этикалык жактан негизделген деп таанылышы мүмкүнбү?”Деп белгилейт Эл аралык Кызыл Чырым комитети.

Кызыгы, илимпоздор согуштук роботторго тыюу салууну да жакташкан. Ушул жылдын июль айында эки миңден ашуун илимпоз, тактап айтканда Тесла менен SpaceXтин жаратуучусу Илон Маск жана DeepMind компаниясынын негиздөөчүлөрү өлүмгө дуушар болгон автономиялык куралдарды иштеп чыкпайбыз деген документке кол коюшту. Google да ушундай кылды. Технологиялык гигант Пентагондун Maven долбоору боюнча иштен баш тартты. Ал эми 2017-жылы бир катар илимпоздор буга чейин БУУну киллер роботторун түзүүгө тыюу салууга чакырышкан.

Баса, согуш учурундагы жасалма интеллект маселеси Бириккен Улуттар Уюмунун күн тартибине 2013-жылдын аягында чыккан, бирок андан бери иш жүзүндө эч нерсе өзгөргөн жок. Ушул жылы гана Адамкерчиликсиз Курал жөнүндө Конвенциянын форматында эксперттик жолугушуулар башталды. Башкача айтканда, кандайдыр бир аздыр-көптүр практикалык учакка келиш үчүн төрт жылдан ашык убакыт кетти.

Эмне үчүн алар автономдуу куралга тыюу салгысы келбейт

Бул канчалык курч угулбасын, жарыша куралдануу алардын өлтүрүүчү роботторго тыюу салгысы келбегенинин негизги себеби болуп саналат. Путин туура айтат: ким биринчи автономдуу куралды алса, ал дүйнөдө үстөмдүк кылат. Расмий түрдө, ушул себеп айтылды.

Тыюу салууга каршы болгондордун негизги аргументи - жарандык жасалма интеллектти аскерден бөлүү мүмкүн эместиги. Биз ашкана бычактарын террористтер колдонушу мүмкүн деп эле тыюу салбайбыз. Чындыгында, жасалма интеллекттин жарандык өнүгүүсүн аскерден бөлүү дээрлик мүмкүн эмес. Бирок азыр биз бутага көз карандысыз аныктоо жана чабуул коюуга мүмкүнчүлүк бере турган бул куралга тыюу салуу жөнүндө сөз кылабыз. Бул АКШнын Коргоо министрлиги Буз Аллен Хэмилтон менен биргеликте иштеп жаткан Maven долбоору болушу мүмкүн (Google келишимден баш тарткан).

Maven иштеп чыгуучулары пилотсуз учактарга сүрөттөрдү анализдөөнү, айрыкча спутниктердин сүрөттөрүн анализдөөнү жана - потенциалдуу - чабуулдун максаттарын аныктоону үйрөтүүнү каалашат. Пентагон 2017-жылдын апрель айында долбоордун үстүнөн иштей баштаган жана жылдын аягына чейин биринчи жумушчу алгоритмдерди алам деп үмүттөнгөн. Бирок Google кызматкерлеринин демаршынын жардамы менен, иштеп чыгуу кийинкиге калтырылган. Ушул жылдын июнь айына карата, Gizmodo боюнча, тутум башталгыч объектилерди - автоунааларды, адамдарды айырмалай алган, бирок кыйын кырдаалда таптакыр маанисиз болуп чыкты. Эгерде Автономиялык куралга тыюу салуу БУУнун деңгээлинде кабыл алынса, анда Пентагон алардын өнүгүүсү адамдардын өмүрүн сактап кала алат, анткени адамдарга салыштырмалуу так жана ишенимдүү иштөө үчүн программаланган болот деп ырастоодо.

"Сиз технология жөнүндө сүйлөшүп жатканыбызды, анын иштей турган үлгүлөрү жок экендигин түшүнүшүңүз керек. Мындай системалардын идеясы дагы деле үстүрт", - деп белгиледи Россиянын Тышкы иштер министрлигинин Женевадагы жолугушуусунун алдында. - Биздин оюбузча, эл аралык укук, тактап айтканда, гуманитардык сектор автономдуу куралга карата колдонулушу мүмкүн. Алар модернизацияга же али жок системаларга ылайыкташууга муктаж эмес”.

Ооба, дагы бир чыныгы, бирок айтылган жок, себеби акча. Бүгүнкү күндө аскердик жасалма интеллект технологияларынын рыногу алты миллиард доллардан ашык бааланат. Америкалык MarketsandMarkets компаниясынын аналитиктери билдиргендей, 2025-жылга чейин бул көрсөткүч үч эсеге көбөйүп, дээрлик 19 миллиардды түзөт. Эң ири курал экспорттоочулар үчүн бул роботторду өлтүрүүгө жол бербөө үчүн жакшы түрткү болот.

Прогрессти токтотууга болбойт

Автономиялык куралга тыюу салууну жактагандар технология тездик менен өнүгүп жаткандыгын жана жасалма интеллект акыры курал болуп калаарын белгилешти - бул мезгил талабы. Алардын сөздөрүндө логика бар. Жасалма интеллект азыркы учурда уланып жаткан төртүнчү илимий-техникалык революциянын ажырагыс бөлүгү. Техникалык прогресс тигил же бул жагынан аскердик аракеттерге байланыштуу экендигин эстен чыгарбоо керек. Үчүнчү илимий-техникалык революция ХХ кылымдын 50-жылдарынын ортосуна чейин созулган, башкача айтканда, анын туу чокусу Экинчи Дүйнөлүк Согуш мезгилине туура келген.

1949-жылы Женева согуш мезгилинде жарандык адамдарды коргоо боюнча конвенцияны кабыл алган. Согуштан кийинки мезгилде алар 1907-жылдагы IV Гаага конвенциясын толукташкан, анда согуш жүргүзүү эрежелери аныкталган. Башкача айтканда, Экинчи Дүйнөлүк согуштун үрөй учурган окуялары ушул процесстин катализатору болуп калды. Демек, укук коргоочулар Үчүнчү Дүйнөлүк согушту күтүп, адамзатты автономиялуу куралдардан коргогусу келбейт. Ошондуктан, киллер роботторунун тагдырын чечүү азыркы учурда зарыл, дешет алар.

Human Rights Watch адистеринин айтымында, согуштук роботторду колдонуу Мартенс декларациясына каршы келет - Согуш мыйзамдары жана үрп-адаттары жөнүндө 1899-жылы Гаага конвенциясынын преамбуласы. Башкача айтканда, өлтүрүүчү роботтор адамзаттын мыйзамдарын жана коомдук аң-сезимдин талаптарын бузушат (позиция IV Гаага конвенциясында ырасталган).

"Биз мындай курал системалары дүйнө жүзүнө жайылып кете электе ага профилактикалык тыюу салуу үчүн биргеликте иш алып барышыбыз керек", - деди Бонни Дохерти, Human Rights Watch уюмунун курал бөлүмүнүн улук илимий кызматкери.

Ооба, бул жолу киллер роботторго тыюу салуу үчүн натыйжа болгон жок. Болжолдуу түрдө ноябрдагы жолугушуулар да натыйжасыз болот. Чындыгында, дээрлик бардык өлкөлөр макул - технологиянын тартылуу күчү менен агышына жол берилбейт жана согуштук роботторго ушундай стоп-кран керек. Бирок адамзат муктаждык жаралганда аны тартып алууга үлгүрөбү же жокпу дагы деле болсо белгисиз.

Сунушталууда: