Para pakar bertemu di Geneva, tetapi tidak ada kesepakatan yang dapat dicapai: Amerika Syarikat dan Rusia menyekat semua pekerjaan. Mungkin ini adalah satu-satunya masa apabila hegemon berfungsi dengan harmoni.
Mesyuarat pakar dalam format Konvensyen Senjata Tidak Manusia berakhir di Geneva untuk menentukan nasib robot pertempuran - senjata autonomi yang menggunakan kecerdasan buatan untuk mengalahkan sasaran. Namun, tidak ada kesepakatan yang dapat dicapai. Amerika Syarikat, Rusia, Korea Selatan, Israel, dan Australia adalah antara negara minoriti yang berjaya menyekat sentimen terhadap larangan robot pembunuh sepenuhnya.
Oleh itu, walaupun masih belum ada senjata autonomi yang berfungsi di dunia, teknologinya tetap ada, sehingga boleh dikatakan manusiawi - ia dapat dikembangkan dan diteliti. Menariknya, Amerika Syarikat dan Rusia, menurut Institut Penyelidikan Keamanan Stockholm (SIPRI), menduduki tempat teratas senarai pengeksport senjata terbesar. Korea Selatan, Israel dan Australia juga tidak ketinggalan dalam ranking ini - mereka adalah antara 20 pemain pasaran teratas.
Dan walaupun China (pengeksport senjata kelima di dunia, anggota tetap Majlis Keselamatan PBB menganjurkan larangan robot tempur, ia tidak berjaya mengubah skala ke arahnya semasa pertemuan. Hari ini, 26 negara secara terbuka menyokong larangan penggunaan kecerdasan buatan dalam perang. Yang lain menjauhkan diri dari kedudukan yang jelas) Perancis dan Jerman (pengeksport senjata ketiga dan keempat) menawarkan untuk menandatangani dokumen yang akan menggabungkan keutamaan manusia berbanding kecerdasan buatan, tetapi kemungkinan besar di pihak mereka yang ingin mengembangkan kenderaan tempur autonomi.
"Tentunya mengecewakan apabila sekumpulan kecil raksasa tentera dapat menahan kehendak majoriti," komentar Mary Verhem, koordinator Kempen Menghentikan Pembunuh Robot, mengenai hasil pertemuan Geneva.
Sebenarnya, keadaannya seperti konspirasi hartawan monopoli bersenjata, memandangkan Amerika Syarikat dan Rusia biasanya tidak dapat mencapai sekurang-kurangnya semacam kompromi dalam masalah penting. Ambil satu keputusan Syria: Washington dan Moscow saling menghalang resolusi satu sama lain setelah menggunakan senjata kimia di Syria musim bunga ini. Ngomong-ngomong gas gas dan bahan toksik lain untuk tujuan ketenteraan, sebelumnya, telah dilarang oleh Konvensyen mengenai Senjata Tidak Manusiawi.
Mesyuarat seterusnya mengenai nasib robot pembunuh akan berlangsung di Geneva pada bulan November.
Mengapa mereka mahu melarang senjata autonomi
Penyokong larangan perang robot menegaskan bahawa medan perang bukanlah tempat untuk kecerdasan buatan. Pada pendapat mereka, teknologi sedemikian menimbulkan ancaman besar. Sekurang-kurangnya, hari ini tidak jelas bagaimana mesin akan membezakan antara pejuang (mereka yang terlibat secara langsung dalam permusuhan) dari bukan pejuang (anggota tentera yang hanya dapat menggunakan senjata untuk mempertahankan diri) dan orang awam pada umumnya. Ada kemungkinan pekerjaan itu akan membunuh orang yang cedera dan mereka yang menyerah, yang dilarang oleh peraturan perang saat ini.
Apa yang menghalang pekerjaan mengganggu semua pihak dalam konflik, bahkan pemilik senjata tersebut? Unsur kecerdasan buatan telah berjaya digunakan dalam peralatan ketenteraan, peluru berpandu; robot tertarik untuk pengintaian, tetapi kata terakhir masih ada pada manusia. Senjata autonomi tidak akan mematuhi perintah panglima - itulah sebabnya ia autonomi. Itulah sebabnya jeneral ketenteraan dari negara yang berbeza ragu-ragu mengenai pengenalan mesin ke dalam barisan personel.
Dan satu lagi persoalan terbuka adalah keganasan antarabangsa. Teknologi senjata autonomi boleh jatuh ke tangan yang salah, dan akhirnya dapat diretas. Setahun yang lalu, Presiden Rusia Vladimir Putin mengatakan bahawa penguasa dunia akan menjadi orang yang akan menjadi pemimpin dalam pengembangan kecerdasan buatan. Dalam hal senjata autonomi, orang yang mendapat akses kepada teknologi tersebut akan menjadi penguasa dunia. Dan untuk ini, sebenarnya, anda hanya memerlukan komputer dan penipu yang akan melalui sistem keselamatan. Pentagon, omong-omong, telah diretas lebih dari sekali. Akibatnya, tidak ada yang dapat memberikan jaminan bahawa senjata autonomi akan tetap tidak dapat dilanggar.
Juga tidak jelas siapa yang akan bertanggungjawab secara sah jika jenayah perang dilakukan sebagai akibat dari fungsi sistem senjata autonomi. Jurutera, pengaturcara, pengeluar atau komandan yang menggunakan senjata itu? Sekiranya tanggungjawab tidak dapat didefinisikan seperti yang disyaratkan oleh undang-undang kemanusiaan antarabangsa, dapatkah penerapan sistem tersebut diakui sah atau beretika?”
Menariknya, para saintis juga menganjurkan larangan robot tempur. Pada bulan Julai tahun ini, lebih daripada dua ribu saintis, khususnya pencipta Tesla dan SpaceX Elon Musk dan pengasas bersama DeepMind, menandatangani dokumen bahawa mereka tidak akan mengembangkan senjata autonomi yang mematikan. Google melakukan perkara yang sama. Raksasa teknologi telah berhenti bekerja pada projek Pentagon's Maven. Dan pada tahun 2017, sejumlah saintis telah meminta PBB untuk melarang penciptaan robot pembunuh.
Ngomong-ngomong, isu kecerdasan buatan dalam perang muncul dalam agenda Pertubuhan Bangsa-Bangsa Bersatu pada akhir tahun 2013, tetapi praktikalnya tidak ada yang berubah sejak itu. Hanya tahun ini, pertemuan pakar bermula dalam format Konvensyen mengenai Senjata Tidak Manusiawi. Maksudnya, diperlukan lebih dari empat tahun untuk datang ke pesawat praktikal lebih kurang.
Mengapa mereka tidak mahu melarang senjata autonomi
Tidak kira seberapa bunyinya, perlumbaan senjata adalah sebab utama mengapa mereka tidak mahu melarang robot pembunuh. Putin betul: siapa sahaja yang mendapat senjata autonomi terlebih dahulu akan menguasai dunia. Secara rasmi, alasan ini disuarakan.
Hujah utama penentang larangan tersebut adalah mustahil untuk memisahkan kecerdasan buatan orang awam dengan tentera. Seperti, kita tidak akan melarang pisau dapur hanya kerana pengganas dapat menggunakannya. Sebenarnya, mustahil untuk memisahkan pembangunan orang awam mengenai kecerdasan buatan dari tentera. Tetapi sekarang kita berbicara mengenai larangan senjata ini, yang dapat menentukan dan menyerang sasaran secara bebas. Ini mungkin projek Maven, yang sedang dikerjakan oleh Jabatan Pertahanan AS bersama dengan Booz Allen Hamilton (Google menolak kontrak).
Pembangun Maven ingin mengajar drone untuk menganalisis gambar, khususnya dari satelit dan - berpotensi - mengenal pasti sasaran serangan. Pentagon mula mengerjakan projek itu pada April 2017 dan berharap dapat memperoleh algoritma kerja pertama pada akhir tahun ini. Tetapi melalui demarkasi pekerja Google, perkembangannya ditangguhkan. Hingga bulan Jun tahun ini, menurut Gizmodo, sistem ini dapat membezakan antara objek asas - kereta, orang, tetapi ternyata sama sekali tidak signifikan dalam situasi sukar. Sekiranya larangan senjata autonomi diadopsi di tingkat PBB, projek itu harus dibatalkan, sementara Pentagon mendakwa bahawa pembangunan mereka dapat menyelamatkan nyawa, kerana dapat diprogramkan untuk bekerja dengan lebih tepat dan andal jika dibandingkan dengan orang.
"Anda harus memahami bahawa kita berbicara tentang teknologi, bahawa ia tidak mempunyai sampel yang dapat berfungsi. Idea sistem seperti itu masih sangat dangkal," kata pada malam pertemuan di Geneva di Kementerian Luar Negeri Rusia. - Pada pendapat kami, undang-undang antarabangsa, khususnya, sektor kemanusiaan, dapat digunakan untuk senjata autonomi. Mereka tidak memerlukan pemodenan atau penyesuaian dengan sistem yang belum ada."
Baik, dan satu lagi yang nyata, tetapi tidak disuarakan, alasannya adalah wang. Hari ini, pasaran untuk teknologi kecerdasan buatan tentera dianggarkan lebih dari enam bilion dolar. Tetapi menjelang 2025 angka itu akan meningkat tiga kali ganda - hampir 19 bilion, menurut penganalisis syarikat Amerika MarketsandMarkets. Bagi pengeksport senjata terbesar, ini adalah motivasi yang baik untuk menyekat sebarang sekatan dalam pengembangan robot pembunuh.
Kemajuan tidak dapat dihentikan
Penyokong larangan senjata autonomi menyatakan bahawa teknologi berkembang sangat cepat dan kecerdasan buatan akhirnya akan menjadi senjata - masalah masa. Ada logik dalam kata-kata mereka. Kecerdasan buatan adalah bahagian yang tidak terpisahkan dari revolusi sains dan teknologi keempat, yang berlanjutan sekarang. Perlu diingat bahawa kemajuan teknikal ada kaitannya dengan operasi ketenteraan. Revolusi ilmiah dan teknologi ketiga berlangsung hingga pertengahan 50-an abad XX, iaitu puncaknya jatuh pada masa Perang Dunia Kedua.
Pada tahun 1949, Geneva mengadopsi Konvensyen untuk Perlindungan Orang Awam dalam Masa Perang. Dalam periode pasca perang, mereka juga melengkapi Konvensyen Hague IV tahun 1907, yang menentukan peraturan untuk menjalankan perang. Iaitu, kengerian Perang Dunia II menjadi pemangkin proses ini. Jadi, para pembela hak asasi manusia tidak mahu menunggu Perang Dunia Ketiga untuk melindungi umat manusia daripada senjata autonomi. Itulah sebabnya menentukan nasib robot pembunuh sekarang perlu, mereka menegaskan.
Menurut pakar Human Rights Watch, penggunaan robot tempur bertentangan dengan Deklarasi Martens - mukadimah Konvensyen Hague 1899 mengenai Undang-Undang dan Adat Perang. Dengan kata lain, robot pembunuh melanggar undang-undang kemanusiaan dan kehendak kesedaran masyarakat (kedudukan itu disahkan dalam Konvensyen Hague IV).
"Kita mesti bekerjasama untuk menerapkan larangan pencegahan terhadap sistem senjata seperti itu sebelum mereka tersebar di seluruh dunia," kata Bonnie Doherty, penyelidik kanan di jabatan senjata di Human Rights Watch.
Baiklah, kali ini tidak berjaya melarang robot pembunuh. Ramalannya, pertemuan pada bulan November juga tidak akan membuahkan hasil. Benar, hampir semua negara bersetuju - teknologi itu tidak boleh dibiarkan mengalir secara graviti dan robot tempur memerlukan kren berhenti. Tetapi masih belum jelas sama ada manusia akan mempunyai masa untuk menariknya apabila keperluan itu timbul.