QUỐC PHÒNG TRONG TƯƠNG LAI

1 Star2 Stars3 Stars4 Stars5 Stars (1 votes, average: 5.00 out of 5)
Loading...

Bài viết của anh Lý Khai Phục (Li Kai-fu) trên tờ The Atlantic – anh Lý người Đài Loan, trước giữ các chức vụ khá lớn tại Google và Microsoft nhưng nay làm ăn, đầu tư tại Trung Quốc. Hồi ký của anh đã được dịch và bán tại Việt Nam. Anh mới ra cuốn “AI 2041: Ten Visions for Our Future” (AI năm 2041: 10 Viễn Kiến Cho Tương Lai) nên dạo này chăm chỉ quảng bá cho cuốn sách (và qua đó PR ngầm cho Trung Quốc). Một trong những bài anh viết gần đây là trong 5 năm tới, Trung Quốc sẽ vượt Mỹ về trí tuệ nhân tạo (AI).

*********

Vào lễ kỷ niệm 20 năm ngày 9/11, trong bối cảnh Hoa Kỳ và đồng minh vội vã rút ra khỏi cuộc chiến tại Afghnistan, thực tế khắc nghiệt của các trận chiến trên bộ cũng như thách thức từ các cuộc tấn công cảm tử từ một phía khiến chúng ta ngày càng khó phớt lờ [những thực tế và thách thức này]. Nhưng thực ra công nghệ vũ khí đã thay đổi cơ bản trong hai thập kỷ qua. Khi nhìn về tương lai không quá xa xôi, chúng ta sẽ phải tự hỏi: Chuyện gì sẽ xảy ra nếu những kẻ đánh bom tự sát được thay bằng những phương trình [toán lý hóa]? Là một người nghiên cứu và làm việc trong lĩnh vực trí tuệ nhân tạo (AI) hơn 4 thập kỷ qua, Tôi lo lắng về mối đe dọa công nghệ này. Cụ thể là trí tuệ nhân tạo và tự động hóa.

Vũ khí tự hành (autonomous weapons) là cuộc cách mạng trong chiến tranh thứ ba, sau hai cuộc cách mạng. Cuộc cách mạng thứ nhất là thuốc súng và thứ hai là vũ khí hạt nhân. Những gì chúng ta chứng kiến về sự tiến hóa của mìn sát thương hay tên lửa điều khiển từ xa chỉ là khúc dạo đầu của khả năng độc lập (autonomy) [của vũ khí] sử dụng AI. Đó là khả năng hủy diệt toàn diện: Tìm kiếm, tự quyết định và xóa xổ sinh mạng một ai đó. Hoàn toàn không có bất kỳ tác động nào từ con người.

Một ví dụ về vũ khí tự hành hiện hữu là thiết bị bay drone của Israel có tên Harpy. Thiết bị bay này được lập trình tuần tra trong phạm vi một khu vực, tìm kiếm những mục tiêu nhất định và hủy diệt chúng bằng đầu đạn chứa chất nổ có tên “Bắn và Quên” (Fire and Forget). Ví dụ sinh động cụ thể hơn có thể thấy trong bộ phim ngắn có tiêu đề “Slaughterbots” kể câu chuyện về loại drone mang kích cỡ một con chim có khả năng tự tìm ra một đối tượng nhất định rồi ghim thẳng vào đầu người đó một miếng chất nổ. Loại drone này tự bay, không người điều khiển, kích cỡ nhỏ cùng tốc độ nhanh đến nỗi người ta khó mà có thể chặn, bắt hay phá hủy chúng.

Những cỗ máy giết chóc tự động kể trên không phải là sản phẩm của trí tưởng tượng. Một cái drone loại này đã suýt thì thành công trong việc ám sát tổng thống Venezuela năm 2018. Với một người chơi drone có kinh nghiệm, hiện họ có thể lắp ráp loại drone này với giá thành dưới 1.000 USD. Toàn bộ các bộ phận để ráp một cái drone có thể mua online. Mọi công nghệ liên quan và có mã nguồn mở đều có thể tải từ mạng Internet xuống. Đây là hậu quả không định hướng được của AI: các cỗ máy tự hành hiện càng ngày càng dễ tiếp cận và với giá thành ngày càng giảm. Chúng ta hãy tưởng tượng xem, giá một sát thủ nay chỉ còn 1.000 USD? Đây không phải là mối nguy xa xôi trong tương lai mà là mối nguy rõ ràng và hiện hữu.

Loài người đã và đang chứng kiến AI đã tiến bộ nhanh như thế nào và những tiến bộ này sẽ làm gia tăng tốc độ của các loại vũ khí tự hành trong tương lai gần. Các cỗ máy giết chóc này sẽ không chỉ là thông minh, chính xác, nhanh và rẻ hơn, chúng còn có khả năng học các khả năng mới. Ví dụ như làm thế nào để làm việc chung trong nhóm để hợp bầy và tự tính toán xem liệu có cái drone nào dư thừa. Những khả năng trên khiến sứ mệnh của chúng hầu như là không thể ngăn được. Một bầy drone 10.000 chiếc có giá thành, về lý thuyết, đâu đó chừng 10 triệu USD có thể xóa sổ một nửa thành phố.

Bất kể những điều trên, vũ khí tự hành cũng có những ích lợi nhất định. Thứ nhất là chúng có thể cứu mạng binh lính nếu chiến tranh chỉ xảy ra giữa máy móc. Thêm vào đó, nếu nằm trong tay một đội quân có kỷ luật, chúng có thể giúp binh lính chỉ nhắm vào binh lính phía bên kia, tránh việc gây đổ máu cho đồng minh, trẻ em và dân thường (giống như một chiếc xe tự hành có thể tự phanh khi chúng phát hiện ra rủi ro va chạm tiềm tàng). Vũ khí tự hành cũng có thể được sử dụng giúp phòng thủ trước những kẻ sát nhân hay xâm nhập trái phép.

Nhưng các mặt tiêu cực và hậu quả của vũ khí được trang bị AI vượt xa mặt tích cực của nó. Hậu quả lớn nhất thuộc về phạm trù đạo đức. Hầu hết các hệ thống luân lý và tôn giáo đều xem việc tước đoạt mạng sống của một con người là một việc đầy tranh cãi, phải có lý do biện minh và sự giám sát thích đáng. Như ông Tổng thư ký LHQ António Guterres đã phát biểu: “Triển vọng về những cỗ máy có thể định đoạt và năng lực tước đi mạng sống con người là đáng ghê tởm về mặt đạo đức!”

Vũ khí tự hành giảm giá thành sát thủ. Hy sinh mạng sống của mình vì một lý tưởng – như những kẻ đánh bom tự sát đang làm – vẫn là một quyết định khó khăn với bất kỳ người nào. Nhưng với các sát thủ tự hành, không mạng sống nào là phải nhượng bộ. Một vấn đề khác là ranh giới nào cho vấn đề trách nhiệm? Tức là ai chịu trách nhiệm trong trường hợp máy móc có sai sót? Trên chiến trường, vấn đề này được xác định rõ ràng. Nhưng khi quyết định tiêu diệt được giao cho một hệ thống tự hành, trách nhiệm lúc này là không rõ ràng (nó giống như trường nhập nhằng về trách nhiệm khi một chiếc xe tự hành cán người đi đường).

Sự nhập nhằng về trách nhiệm kể trên cũng có thể giúp giúp những kẻ tấn công giải tội vi phạm nhân quyền hay trừng phạt của công lý. Nó cũng làm giảm đi mức độ được coi là bắt đầu tình trạng chiến tranh hay khiến cho bất kỳ ai cũng có thể thực hành tương tự. Một mối nguy liên quan khác là vũ khí tự hành có thể nhắm đến các cá nhân thông qua công nghệ nhận diện khuôn mặt hay vóc dáng hay qua tín hiệu điện thoại của hệ thống internet vạn vật (IoT). Công nghệ này không những giúp cho việc ám sát một người mà là một nhóm người cụ thể. Một trong những câu chuyện trong cuốn sách “khoa học giả tưởng” của tôi viết chung với nhà văn Chen Qìuan là cuốn “AI 2041” dựa trên tình huống giả định thực tế trong tương lai, miêu tả một kẻ khủng bố chuyên đánh bom các trường đại học và hãng hàng không (unabomber), thảm sát nhóm các doan nhân và cá nhân ưu tú.

Càng trao [cho máy móc] khả năng quyết định độc lập mà không có hiểu biết tương ứng về siêu các hệ lụy liên quan (meta issues) sẽ làm tăng khả năng gây ra các cuộc chiến, thương vong và các tình huống leo thang (ví dụ như chiến tranh hạt nhân). AI bị giới hạn bởi nó thiếu khả năng đánh giá vấn đề đạo đức, thuộc phạm trù của con người khi họ phải cân nhắc bước qua làn ranh. Bất kể bạn có thể dạy dỗ hệ thống vũ khí tự hành như thế nào, giới hạn về khả năng xét đoán làn ranh sẽ luôn khiến trí tuệ nhân tạo không thể hiểu đủ về hậu quả của chính hành vi của nó.

Vào năm 2015, Viện Nghiên cứu đời sống tương lai (Future of Life Institute) công bố bức thư ngỏ về vũ khí AI. Trong thư, viện này khuyến cáo rằng: “Một cuộc chạy đua vũ trang toàn cầu là điều không tránh khỏi!” Xu thế mang tính leo thang này khẳng định những câu chuyện cũ về cuộc chạy đua vũ trang liên quan đến thủy quân giữa Anh và Đức trong quá khứ hay giữa Liên Xô và Mỹ gần đây. Từ xưa, các siêu cường đã luôn chiến đấu để giành vị thế siêu cường quân sự. Vũ khí tự hành trang bị cho họ nhiều “lợi thế” để họ có thể “chiến thắng”! Ví dụ như nhỏ, nhanh, âm thầm và có khả năng hủy diệt cao nhất v.v.

Theo đuổi sức mạnh quân sự thông qua vũ khí tự hành cũng khiến tốn ít chi phí, giảm đi các rào cản khi phải mở một cuộc xung đột tầm cỡ toàn cầu. Các nước nhỏ nhưng sở hữu công nghệ cao như Israel đã tham gia vào cuộc chạy đua với các sản phẩm là số binh lính rô-bốt tiên tiến nhất. Một số binh lính này mang kích cỡ nhỏ như một con ruồi. Với khả năng gần như chắc chắn trong tương lai gần, kẻ thù của những quốc gia này cũng buộc phải xây dựng hệ thống vũ khí tự hành của mình. Các quốc gia tham vọng sẽ bị buộc cảm thấy cần thiết mà tham gia cuộc chạy đua.

Vậy thì cuộc chạy đua này sẽ đi đến đâu? GS khoa học máy tính Stuart Russell tại trường ĐHTH UC Berkeleys phát biểu rằng: “Khả năng của vũ khí tự hành sẽ bị giới hạn bởi các định luật vật lý – ví dụ như giới hạn về tầm xa, tốc độ và tải trọng hơn là sự lạc hậu của hệ thống AI kiểm soát chúng. Chúng ta có thể chứng kiến việc phát động hàng triệu nền tảng với độ nhanh nhạy cũng như độ tàn bạo của chúng sẽ khiến cho con người chúng ta không còn khả năng chống cự.” Nếu chúng ta cho phép một cuộc chạy đua vũ trang đa diện này, rốt cục sẽ trở thành một cuộc đua đến sự lãng quên [của loài người].

Vũ khí hạt nhân là mối nguy hiểm hiện hữu. Tuy vậy, chúng đang được kiểm soát và thậm chí còn giúp giảm đi các cuộc chiến thông thường theo lý thuyết răn đe. Bởi vì một cuộc chiến tranh hạt nhân sẽ dẫn đến kết cục cả hai cùng bị hủy diệt. Bất kỳ quốc gia nào tấn công hạt nhấn trước thì hầu như chắc chắn sẽ bị trả đũa và như vậy rốt cục là cả hai cùng tự hủy diệt.

Nhưng vũ khí tự hành thì khác. Lý thuyết răn đe sẽ không còn được áp dụng trong trường hợp này bởi vì một cuộc đột kích bất ngờ có thể không thể nào truy nguồn gốc. Như tôi nói trên đây, một cuộc tấn công bằng vũ khí tự hành có thể nhanh chóng mang đến sự phản kích. Tình trạng leo thang có thể xảy ra nhanh chóng, thậm chí có thể dẫn đến một cuộc chiến tranh hạt nhân. Cuộc tấn công khởi đầu có thể không phải bắt đầu từ một quốc gia mà là từ những kẻ khủng bố hay từ những phần tử không mang tính nhà nước. Thực tế này có thể làm gia tăng mức độ nguy hiểm của vũ khí tự hành.

Hiện đã có một số đề xuất về các giải pháp cho mối họa đang xảy ra này. Đề xuất thứ nhất là con người sẽ là người quyết định cuối cùng. Nói cách khác là mọi quyết định chết chóc phải do con người đưa ra. Thế nhưng, năng lực của vũ khí tự hành phần nhiều là dựa trên khả năng về tốc độ và độ chính xác của chúng. Những ưu thế này loại con người ra rìa. Chẳng quốc gia nào mong muốn chiến thắng trong cuộc chạy đua vũ trang lại chấp nhận điều kiện làm suy yếu năng lực của chính mình như thế này cả. Việc đưa con người vào quá trình ra quyết định cũng khó thi hành cũng như dễ bỏ qua. Nó cũng rất phụ thuộc vào tính cách và khả năng ra quyết định của người có liên quan nữa.

Đề xuất thứ hai là cấm đoán. Đề xuất này được ủng hộ bởi Chiến dịch yêu cầu chấm dứt sát thủ rô-bốt cùng một thỉnh nguyện thư được ký bởi khoảng 3.000 nhân vật, trong đó có Elon Musk, Stephen Hawking và hàng ngàn chuyên gia AI khác. Trong quá khứ, các nhà sinh hóa hay vật lý cũng đã có những nỗ lực tương tự trong việc thuyết phục cấm vũ khí sinh hóa hay hạt nhân. Một lệnh cấm sẽ không dễ dàng gì nhưng trên thực tế các lệnh cấm về vũ khí laser gây mù hay vũ khí sinh hóa dường như cũng có hiệu lực. Nhân tố cản đường chính hiện nay là các nước Hoa Kỳ, Anh và Nga. Các nước này đều phản đối lệnh cấm vũ khí tự hành, cho rằng nó còn quá sớm để ra lệnh này.

Đề xuất thứ ba là quản lý hay kiểm soát. Cũng giống như các đề xuất trên, giải pháp này là phức tạp bởi độ khó khi quy định các chi tiết kỹ thuật sao hợp lý mà không quá rộng. Chúng ta sẽ định nghĩa vũ khí tự hành như thế nào? Làm thế nào để kiểm tra xem có vi phạm hay không? Đây là những trở ngại ngắn hạn cực khó khăn. Về dài hạn, có thể có các giải pháp mang tính đột phá dù cũng khó mà tưởng tượng ra. Ví dụ, liệu các quốc gia có thể đồng ý rắng mọi cuộc chiến tương lai sẽ chỉ diễn ra giữa rô-bốt (hay thậm chí hay hơn là giữa các phần mềm), không gây thương vong cho người mà vẫn có phần thưởng của chiến tranh? Hay liệu có cuộc chiến mà trong đó có cả người lẫn rô-bốt nhưng rô-bốt chỉ được phép sử dụng vũ khí làm tê liệt rô-bốt khác chứ không được gây thương vong cho người?

Vũ khí tự hành đã và đang là mối nguy rõ ràng và hiện hữu. Chúng sẽ ngày càng trở nên thông minh, nhanh nhẹn, chết chóc và dễ tiếp cận với tốc độ ngày càng đáng báo động. Việc huy động hay triển khai vũ khí tự hành sẽ càng được gia tăng bởi cuộc chạy đua vũ trang không tránh khỏi mà chúng ta thiếu đi cách thức kiềm chế giống như áp dụng cho vũ khí hạt nhân. Vũ khí tự hành là ứng dụng AI với những xung đột rõ ràng và sâu sắc nhất với các giá trị đạo đức của chúng ta và là mối đe dọa với loài người.

Nguồn: AI Weapons Are the Third Revolution in Warfare – The Atlantic

Hy vọng rằng bài viết này của KVBro cung cấp cho bạn những thông tin cần thiết và hữu ích. Nếu có thắc mắc gì bạn hãy liên lạc với fanpage KVBro để có câu trả lời sớm nhất.

Đánh giá bài viết: 1 Star2 Stars3 Stars4 Stars5 Stars (1 votes, average: 5.00 out of 5)

Loading...

KVBro-Nhịp sống Nhật Bản