Ubojice trutovi - strašno oružje budućnosti

Dronovi su svugdje ušli u naše živote. A iz skupih igračaka već se pretvaraju u široko dostupnu, nužnu i univerzalnu temu. Međutim, prije svega, njihove sposobnosti, kao što je često slučaj, bile su cijenjene od strane vojske. Svaka država koja poštuje sebe sada posjeduje štrajkačke i izviđačke bespilotne letjelice. Vojno zapovjedništvo odavno je shvatilo da je budućnost ratova iza visoko preciznog oružja, dok će oružje za masovno uništenje ući u povijest. A oružje je preciznije i brže, što je osoba manje uključena u to.

Upravo je ta tema aktivistkinje pokreta zabranile autonomiju oružja podignutog valjkom. To je prvi put prikazano na sastanku Ujedinjenih naroda u Ženevi posvećenom modernom oružju. Do sada je film "Slaughterbots", koji se može slobodno prevesti kao "Drones-ubice", već dobio više od dva i pol milijuna pregleda. Video, koji više podsjeća na kratki igrani film, govori o razvoju nove vrste oružja - minijaturnog ubojice drona. U priči, potpuno autonomna bespilotna vozila mogu sama pronaći određeni cilj, analizirajući informacije iz društvenih mreža i Interneta, gdje ljudi već godinama unose sve podatke o sebi. Pronašavši metu, drona se razbije u nju i udari smjernom eksplozijom, koristeći tri grama ugrađenog eksploziva. Mali ubojice mogu biti bačeni iz tisuća zrakoplova u traženo područje i probiti svaku obranu, ako je potrebno, stvarajući rupe u prozorima i zidovima, neovisno uništavajući sve na svom putu. Međutim, autonomija novog oružja postaje njegova "Ahilova peta" - teroristi presreću kontrolu nad novom tehnologijom i napadaju američke političare i studente, potvrđujući svoju smrtnost s tisućama žrtava.

Snimak iz isječka (ispuštanje bespilotnih letjelica iz aviona)

Kako je takvo razmišljanje o amaterskoj fantaziji zanimljivo? Činjenica da se sve što je prikazano sada može implementirati. Na kraju videa, ozbiljnost ove prijetnje potvrđuje profesor računalne znanosti sa Sveučilišta u Berkeleyju, Stuart Russell. On tvrdi da sve demonstrirane tehnologije već postoje i da ništa nije fundamentalno neostvarivo u videu. Ostaje samo spojiti sve i malo ga smanjiti. S njim se slažu i predstavnici Instituta za život budućnosti koji su aktivno sudjelovali u snimanju videa. Članovi instituta, kao što su Ilon Musk, Jaan Tallinn (koautor Skypea), poznati fizičari Max Tegmark i Anthony Aguirr, au prošlosti Stephen Hawking, prvi put rade na umjetnoj inteligenciji, a njihovo mišljenje je značajno u ovoj industriji.

Zapravo, ne postoje samo tehnologije, već i postojeći modeli sa sličnom svrhom. Već postoje lagani trutovi, slični onima koji se mogu kupiti u običnoj trgovini, naoružani malim ili čak raketnim oružjem. A od 2011. godine, američka vojska ima Switchblade UAV u službi. Uređaj teži dva i pol kilograma i predstavlja dron-kamikaze. Može se kretati do cilja gotovo nečujno pri brzinama do 160 km / h, a zahvaljujući svojoj minijaturnoj veličini izuzetno je teško oboriti pristup. Ona već ima autonomni sustav ciljanja, koji još uvijek postavlja čovjek. Programeri su već najavili testiranje kompaktnijeg modela. Ali sljedeći logičan korak će biti delegiranje umjetne inteligencije i izbor svrhe.

Snimljen s videozapisa

Uvođenje autonomnog oružja neizbježno je. Jednostavan vojnik - njegova obuka i oprema - postaje preskup za korištenje u borbi. A želja da se neprijatelj uništi na tako brz način, bez uništavanja infrastrukture, prije ili kasnije će osvojiti um vojnih dužnosnika. Čak iu rukama vojske, američka bespilotna vozila ubijaju u prosjeku jednog civila na četiri protivnika, čak i ako su mnoge operacije otkazane zbog straha od smrti civila. Umjetna inteligencija neće biti tako opterećena moralnim standardima. Njegova će djela biti što smrtonosnija i brža, bez obzira tko mu zapovijeda. I u svijetu visoke tehnologije, dobivanje takvog oružja u ruke terorista ili kriminalaca je pitanje vremena. To je ono o čemu kreatori ovog videa žele razmišljati.

Pogledajte videozapis: NYSTV - Armageddon and the New 5G Network Technology w guest Scott Hensler - Multi Language (Ožujak 2024).