Оружање умјетне интелигенције



<див _нгцонтент-ц14 = "" иннерхтмл = "

Стварност успона аутономних система наоружањаЈе појачао ЦогВорлд

Увод

Технолошки развој је постао трка пацова. У конкуренцији за вођење трке нових технологија и футуристичког борбеног ратовања, вештачка интелигенција (АИ) убрзано постаје центар глобалне моћи. Као што се види у многим земљама, развој аутономног система наоружања (АВС) убрзано напредује и чини се да је ово повећање оружја умјетне интелигенције постало веома дестабилизирајући развој. Она доноси комплексне сигурносне изазове не само за доносиоце одлука у свакој нацији, већ и за будућност човјечанства.

Стварност данас је да нас вештачка интелигенција води ка новом алгоритамском ратном пољу које нема граница или граница, може или не мора имати људе који су укључени, и биће немогуће разумети и можда контролисати људски екосистем у сајбер простору, геопростору и простору (ЦГС). Као резултат тога, сама идеја о употреби оружја за вештачку интелигенцију, где систем оружја, који се једном активира преко ЦГС-а, може да бира и ангажује људске и не-људске циљеве без даље интервенције људског дизајнера или оператера, је изазива велики страх.

Размишљање о било којој интелигентној машини или машинској интелигенцији да има способност да изведе било који пројектовани ратни задатак без људског учешћа и интервенције – користећи само интеракцију његових уграђених сензора, компјутерског програмирања и алгоритама у људској средини и екосистему – постаје стварност то се више не може игнорисати.

Оружање умјетне интелигенције

Како се АИ, стројно учење и дубоко учење развијају даље и прелазе са концепта на комерцијализацију, брзо убрзавање рачунарске снаге, меморије, великих података и комуникације велике брзине не само да ствара иновације, инвестиције и помахнитање у апликацијама, већ и интензивира потрагу. за АИ чипове. Ово сталан брз напредак и развој да је умјетна интелигенција на путу ка револуционарном ратовању и да ће нације несумњиво наставити да развијају аутоматизовани систем наоружања који ће АИ омогућити.

Када народи појединачно и колективно убрзавају своје напоре да стекну конкурентску предност у науци и технологији, даље оружје АИ је неизбежно. У складу с тим, постоји потреба да се визуализира како би изгледао алгоритамски рат сутрашњице, јер је изградња аутономних система наоружања једна ствар, али њихово кориштење у алгоритамском ратовању с другим нацијама и другим људима је друго.

Као што су извештаји већ се појављују сложених алгоритамских система који подржавају све више и више аспеката ратних сукоба широм ЦГС-а, истина је да је роботизација АИ сада стварност. Као што се види у сајбер простору, аутоматизовано ратовање (циберварфаре) има већ почели – где су сви и сви мета. Дакле, шта је следеће, гео ратовање и ратовање у свемиру? И, ко и шта ће бити мета?

Брз развој оружја АИ је евидентан на свим нивоима: навигацију и коришћење морнарице без посаде, антене, & нбсп; и теренска возила, производе процене штете на основу колатерала, примену ракетних система „ватре и заборави“ и коришћење стационарних система за аутоматизацију свега – од система за особље и од одржавања опреме до примене надзорни трутови, роботи и више су сви примери. Дакле, када алгоритми подржавају све више и више аспеката рата, то нас доводи до важног питања: која употреба умјетне интелигенције у данашњем и сутрашњем рату треба бити дозвољена, ограничена и потпуно забрањена?

Вјерује се да аутономни системи оружја пружају могућности за смањење оперативних трошкова система наоружања – посебно кроз учинковитију употребу радне снаге – и вјероватно ће омогућити системима наоружања да постигну већу брзину, прецизност, упорност, прецизност, досег и координацију на Борбено поље ЦГС-а, потреба за разумијевањем и оцјењивањем технолошких, правних, економских, друштвених и сигурносних питања и даље остаје.

Улога програмера и програмирања

У овим сложеним сигурносним изазовима и мору непознаница које долазе на наш пут, оно што остаје фундаментално за сигурност и сигурност људске расе је улога програмера и програмирања заједно са интегритетом полупроводничких чипова. Разлог томе је што програмери могу дефинирати и одредити природу АВС-а (барем на почетку) док АИ не почне програмирати себе.

Међутим, ако и када програмер који намјерно или случајно програмира аутономно оружје да дјелује у супротности са садашњим и будућим међународним хуманитарним правом (ИХЛ), како ће људи контролирати оружје АИ? Штавише, због тога што је АВС усредсређен на софтвер, где би одговорност за грешке и манипулацију АВС система требало да дизајнира и користи лаж? То нас доводи до сржи питања – када и ако аутономни систем убије, ко је одговоран за убијање, без обзира да ли је то оправдано или не?

Изазови сајбер безбедности

Укратко, алгоритми нипошто нису сигурни – нити су имуни на грешке, малваре, биас и & нбсп; манипулацију. Пошто машинско учење користи машине за тренирање других машина, шта се дешава ако постоји злонамерни софтвер или манипулација подацима о обуци? Док су безбедносни ризици свуда, повезани уређаји повећавају способност кршења сајбер безбедности са удаљених локација и зато што је код непрозиран, безбедност је веома сложена. Дакле, када АИ иде у рат са другим АИ (без обзира да ли је то за сајбер-сигурност, гео-сигурност, или сигурност у свемиру), текући изазови сајбер-сигурности ће додати огромне ризике за будућност човјечанства и људског екосистема у ЦГС-у.

Иако се чини да су аутономни системи наоружања ту да остану, питање које ми сви појединачно и колективно треба да одговоримо је да ли ће вештачка интелигенција водити и одредити нашу стратегију за људски опстанак и безбедност, или ћемо?

Признавајући ову стварност у настајању, Риск Гроуп је иницирала пријеко потребну дискусију о аутономним системима наоружања са Маркусом Вагнером, објављеним ауторима и ванредним професором права на Универзитету Воллонгонг са сједиштем у Аустралији.

Обелодањивање: Риск Гроуп ЛЛЦ је моја компанија

Риск Гроуп расправља о аутономном систему оружја и праву са Маркусом Вагнером, објављеним ауторима и ванредним професором права на Универзитету у Воллонгонгу, са седиштем у Аустралији, о истраживању ризика.

Шта је следеће?

Пошто државе појединачно и колективно убрзавају своје напоре да стекну конкурентску предност у науци и технологији, даље оружје АИ је неизбежно. Као резултат тога, позиционирање АВС би промијенило значење да буде људско и неће у неизвјесним терминима промијенити основне основе сигурности и будућности човјечанства и мира.

Важно је разумети и процијенити да ли се аутономна трка у наоружању не може спријечити, што би могло поћи по злу. Време је да се призна чињеница да једноставно зато што технологија може омогућити успешан развој АВС-а, то не значи да треба. Можда није у интересу човјечанства да оружје умјетне интелигенције! Време је за паузу.

">

Стварност успона аутономних система наоружањаЈе појачао ЦогВорлд

Увод

Технолошки развој је постао трка пацова. У конкуренцији за вођење трке нових технологија и футуристичког борбеног ратовања, вештачка интелигенција (АИ) убрзано постаје центар глобалне моћи. Као што се види у многим земљама, развој аутономног система наоружања (АВС) убрзано напредује и чини се да је ово повећање оружја умјетне интелигенције постало веома дестабилизирајући развој. Она доноси комплексне сигурносне изазове не само за доносиоце одлука у свакој нацији, већ и за будућност човјечанства.

Стварност данас је да нас вештачка интелигенција води ка новом алгоритамском ратном пољу које нема граница или граница, може или не мора имати људе који су укључени, и биће немогуће разумети и можда контролисати људски екосистем у сајбер простору, геопростору и простору (ЦГС). Као резултат тога, сама идеја о употреби оружја за вештачку интелигенцију, где систем оружја, који се једном активира преко ЦГС-а, може да бира и ангажује људске и не-људске циљеве без даље интервенције људског дизајнера или оператера, је изазива велики страх.

Размишљање о било којој интелигентној машини или машинској интелигенцији да има способност да изведе било који пројектовани ратни задатак без људског учешћа и интервенције – користећи само интеракцију његових уграђених сензора, компјутерског програмирања и алгоритама у људској средини и екосистему – постаје стварност то се више не може игнорисати.

Оружање умјетне интелигенције

Како се АИ, стројно учење и дубоко учење развијају даље и прелазе са концепта на комерцијализацију, брзо убрзавање рачунарске снаге, меморије, великих података и комуникације велике брзине не само да ствара иновације, инвестиције и помахнитање у апликацијама, већ и интензивира потрагу. за АИ чипове. Ово сталан брз напредак и развој да је умјетна интелигенција на путу ка револуционарном ратовању и да ће нације несумњиво наставити да развијају аутоматизовани систем наоружања који ће АИ омогућити.

Када народи појединачно и колективно убрзавају своје напоре да стекну конкурентску предност у науци и технологији, даље оружје АИ је неизбежно. У складу с тим, постоји потреба да се визуализира како би изгледао алгоритамски рат сутрашњице, јер је изградња аутономних система наоружања једна ствар, али њихово кориштење у алгоритамском ратовању с другим нацијама и другим људима је друго.

Као што су извештаји већ се појављују сложених алгоритамских система који подржавају све више и више аспеката ратних сукоба широм ЦГС-а, истина је да је роботизација АИ сада стварност. Као што се види у сајбер простору, аутоматизовано ратовање (циберварфаре) има већ почели – где су сви и сви мета. Дакле, шта је следеће, гео ратовање и ратовање у свемиру? И, ко и шта ће бити мета?

Брз развој оружја АИ је евидентан на свим нивоима: навигацију и коришћење морнарице без посадевозила, антена и теренска возила, за израду процјене штете од колатерала, примену ракетних система „ватре и заборави“ и коришћење стационарних система за аутоматизацију свега – од система за особље и од одржавања опреме до примене надзорни трутови, роботи и више су сви примери. Дакле, када алгоритми подржавају све више и више аспеката рата, то нас доводи до важног питања: која употреба умјетне интелигенције у данашњем и сутрашњем рату треба бити дозвољена, ограничена и потпуно забрањена?

Вјерује се да аутономни системи оружја пружају могућности за смањење оперативних трошкова система наоружања – посебно кроз учинковитију употребу радне снаге – и вјероватно ће омогућити системима наоружања да постигну већу брзину, прецизност, упорност, прецизност, досег и координацију на Борбено поље ЦГС-а, потреба за разумијевањем и оцјењивањем технолошких, правних, економских, друштвених и сигурносних питања и даље остаје.

Улога програмера и програмирања

У овим сложеним сигурносним изазовима и мору непознаница које долазе на наш пут, оно што остаје фундаментално за сигурност и сигурност људске расе је улога програмера и програмирања заједно са интегритетом полупроводничких чипова. Разлог томе је што програмери могу дефинирати и одредити природу АВС-а (барем на почетку) док АИ не почне програмирати себе.

Међутим, ако и када програмер који намјерно или случајно програмира аутономно оружје да дјелује у супротности са садашњим и будућим међународним хуманитарним правом (ИХЛ), како ће људи контролирати оружје АИ? Штавише, због тога што је АВС усредсређен на софтвер, где би одговорност за грешке и манипулацију АВС система требало да дизајнира и користи лаж? То нас доводи до сржи питања – када и ако аутономни систем убије, ко је одговоран за убијање, без обзира да ли је то оправдано или не?

Изазови сајбер безбедности

Укратко, алгоритми нипошто нису сигурни – нити су имуни на грешке, малваре, предрасуде и манипулације. Пошто машинско учење користи машине за тренирање других машина, шта се дешава ако постоји злонамерни софтвер или манипулација подацима о обуци? Док су безбедносни ризици свуда, повезани уређаји повећавају способност кршења сајбер безбедности са удаљених локација и зато што је код непрозиран, безбедност је веома сложена. Дакле, када АИ иде у рат са другим АИ (без обзира да ли је то за сајбер-сигурност, гео-сигурност, или сигурност у свемиру), текући изазови сајбер-сигурности ће додати огромне ризике за будућност човјечанства и људског екосистема у ЦГС.

Иако се чини да су аутономни системи наоружања ту да остану, питање које ми сви појединачно и колективно треба да одговоримо је да ли ће вештачка интелигенција водити и одредити нашу стратегију за људски опстанак и безбедност, или ћемо?

Признавајући ову стварност у настајању, Риск Гроуп је иницирала пријеко потребну дискусију о аутономним системима наоружања са Маркусом Вагнером, објављеним ауторима и ванредним професором права на Универзитету Воллонгонг са сједиштем у Аустралији.

Обелодањивање: Риск Гроуп ЛЛЦ је моја компанија

Риск Гроуп расправља о аутономном систему оружја и праву са Маркусом Вагнером, објављеним ауторима и ванредним професором права на Универзитету у Воллонгонгу, са седиштем у Аустралији, о истраживању ризика.

Шта је следеће?

Пошто државе појединачно и колективно убрзавају своје напоре да стекну конкурентску предност у науци и технологији, даље оружје АИ је неизбежно. Као резултат тога, позиционирање АВС-а би промијенило значење да би било људско биће и да ће несигурно мијењати саме основе сигурности и будућности човјечанства и мира.

Важно је разумети и процијенити да ли се аутономна трка у наоружању не може спријечити, што би могло поћи по злу. Време је да се призна чињеница да једноставно зато што технологија може омогућити успешан развој АВС-а, то не значи да треба. Можда није у интересу човјечанства да оружје умјетне интелигенције! Време је за паузу.