Về robot sát thủ của Hàn Quốc (P.2)


<title>Về robot sát thủ của Hàn Quốc (P.2)</title>

Về robot sát thủ của Hàn Quốc (P.2)

Hồi đầu 2005, tờ New York Times tường thuật về các kế hoạch của Lầu 5 Góc nhằm thay thế lính bằng các robot tự động. Lý do thật dễ hiểu.

Xem phần 1 tại đây

"Các hạn chế tự đặt ra"

Nếu có robot, nhu cầu phải đưa người ra mặt trận sẽ giảm, và do vậy giảm nguy cơ thương vong của binh lính. Tuy nhiên, trong lúc các thiết bị như Super aEgis II với khả năng tự động tiêu diệt mục tiêu đã tồn tại cả hơn chục năm nay, công chúng vẫn chưa hề biết tới việc có bất kỳ loại robot gắn súng máy tự động nào được đưa vào sử dụng.

Isaac Asimov, tác giả cuốn truyện khoa học viễn tưởng Nguyên tắc đầu tiên của Robot (First Laws of Robotics), cho rằng 'một robot không thể làm tổn hại tới bất kỳ ai, hoặc không thể không hành động khiến một người có thể bị tổn hại' - thế nhưng có vẻ như quy tắc này sẽ bị phá vỡ.

Việc Tổ chức Theo dõi Nhân quyền kêu gọi ra lệnh cấm đối với việc "phát triển, sản xuất và sử dụng vũ khí tự động hoàn toàn" dường như không thực tiễn. Những cỗ máy như thế thực ra đã tồn tại, đang được bán ra thị trường, dẫu cho, như Park từ DoDAAM nói, chúng được "tự đặt giới hạn" hoạt động.

"Khi khởi đầu mảng này, chúng tôi đã nhìn thấy cơ hội làm ăn," Yangchan Song, giám đốc điều hành phụ trách mảng lên chiến lược của hãng nói.

"Vũ khí tự động sẽ là thứ được dùng trong tương lai. Chúng tôi đã đúng đắn. Việc cải tiến diễn ra rất nhanh chóng. Chúng tôi đã chuyển từ các thiết bị chiến đấu điều khiển từ xa tới cái mà chúng tôi đang tiến cận: đó là các thiết bị thông minh có khả năng tự phán đoán và ra quyết định."

Hàn Quốc đã trở thành người đi đầu trong lĩnh vực robot quân sự, bởi nước này có chung đường biên giới với kẻ thù không đội trời chung, theo lời Tổng giám đốc điều hành của DoDAAM, Myung Kwang Chang.

"Nhu cầu chính là cha đẻ của sáng chế," ông nói. "Chúng tôi sống trong một bối cách đặc biệt. Chúng tôi có kẻ thù hùng mạnh luôn hiện diện bên cạnh. Mối đe doạ thường trực khiến chúng tôi phải phát triển một quân đội mạnh và phải dùng đến sự hỗ trợ của công nghệ. Vũ khí của chúng tôi không bao giờ nằm yên, như con người vậy. Vũ khí của chúng tôi có thể nhìn vào bóng đêm, điều mà con người không làm được. Công nghệ giúp bù đắp những gì mà con người không làm được."
 

Khu phi quân sự (DMZ), một dải đất hẹp không bóng người nhằm phân cách hai miền Triều Tiên

Tại khu phi quân sự (DMZ), một dải đất hẹp không bóng người nhằm phân cách hai miền Triều Tiên, DoDAAM và hãng Samsung cạnh tranh, vốn cũng từng thiết kế tháp pháo tự động nhưng nay bỏ cuộc, đã thử nghiệm Super aEgis II.
DMZ là nơi lý tưởng để thử nghiệm những thứ như thế này. Hai miền Triều Tiên chưa ký thoả thuận ngừng bắn kể từ sau khi chấm dứt sự thù nghịch chính thức hồi 1953 tới nay, cho nên DMZ là vùng đệm được hàng ngàn binh lính của cả hai bên canh phòng cẩn mật.

Tháp pháo không bao giờ ngủ, nó còn có khả năng nhìn vào bóng đêm nhờ có camera tầm nhiệt, và một khi được chĩa vào đúng hướng, nó sẽ đảm bảo biến tất cả các mục tiêu di động ở khu vực đó trở thành kẻ thù.

Tuy nhiên, sự việc phức tạp hơn khi cỗ máy được đặt tại nơi mà cả bạn lẫn thù đều đi lẫn vào nhau. Hiện loại vũ khí này vẫn chưa có cách nào phân biệt được bạn với thù.

"Bước tiếp theo là chúng tôi sẽ phát triển phần mềm nhằm phân biệt được bạn với thù, dân thường với binh lính," Song, một kỹ sư trẻ nói. "Hiện nay, tháp pháo cần có sự can thiệp của con người trong việc xác định một đối tượng nào đó có phải là mục tiêu hay không."

Park và các kỹ sư khác nói rằng họ sắp đạt được kết quả cần thiết để máy có thể hoạt động độc lập khỏi sự can thiệp của con người.

Nhờ được trang bị nhiều camera, Park nói, phần mềm của tháp pháo sẽ xác định được liệu đối tượng đang bị theo dõi có mang theo chất nổ trong mình hay không, và khả năng nhận dạng kẻ thù dựa trên quân phục người đó mặc.
Một khi vũ khí có thể phân biệt được giữa bạn và thù thì việc tiến tới tự động hoá hoàn toàn sẽ là điều đơn giản.

Các nguyên tắc phức tạp

Giả thuyết về đạo đức của Philippa Foot lần đầu tiên được đưa ra hồi 1967 là một kịch bản rất quen thuộc với các sinh viên.

Theo giả thuyết này, một toa tàu lao tới ngã rẽ thành hai hướng, đi về hướng theo dự định thì một toán năm nhân viên đang làm việc trên đường ray sẽ bị đâm vào và thiệt mạng, còn nếu bị bẻ lái sang hướng kia thì chỉ một người duy nhất đang làm việc sẽ bị chết. Vậy nếu bạn ngồi ở vị trí điều hành hướng di chuyển của toa tàu, bạn sẽ quyết định thế nào?

Cách phải đưa ra quyết định cho những tình huống như thế sẽ sớm được trả lời, nhưng không phải do con người mà là do các cỗ máy.

Chiếc xe hơi tự lái phải quyết định xem nó sẽ đâm vào chiếc xe hơi trước mặt và do đó rất có thể sẽ làm bị thương vài người trong xe đó, hay sẽ lái vòng ra, khiến cho hành khách ngồi bên trong nó bị thương.

Tương tự, phiên bản hoàn toàn tự động của máy bay không người lái Predator có thể sẽ phải quyết định liệu có nhả đạn vào một căn nhà trong đó có cả lính đối phương lẫn dân thường hay không.

Nếu bạn là kỹ sư thiết kế phần mềm, bạn sẽ đặt các bộ mệnh lệnh ra sao để thiết bị thực hiện trong các tình huống như thế?

Với nhiều người, giải pháp đơn giản nhất là hãy để những câu hỏi đó cho con người trả lời, thay vì để máy tự quyết.
Đó là lý do khiến Hiệp ước Ottawa 1997 cấm sử dụng mìn, bởi đó là những vũ khí tự động nguy hiểm, phát nổ khi có bất kỳ ai đạp phải.

Trong trường hợp đó, để con người quyết định có vẻ như là điều hợp lý.

Cũng có vẻ như việc để phi công có quyền chiếm kiểm soát đầy đủ đối với các hệ thống điều khiển máy bay tự động cũng là hợp lý.
 
Thảm hoạ hàng không của hãng Germanwings trong 2015

Thế nhưng trong thảm hoạ hàng không của hãng Germanwings hồi 2015, cơ phó Andreas Lubitz đã cố tình cho chiếc phi cơ lao xuống dãy núi Alps ở Pháp, làm toàn bộ 150 hành khách thiệt mạng.

Có lẽ như thế thì lại phải là không nên để bất kỳ phi công nào có thể chiếm quyền kiểm soát hệ thống máy tính, ít nhất là khi máy bay bay vào vùng đồi núi?

"Có rất nhiều cách tiếp cận khác nhau trong việc phát triển vũ khí phù hợp với các tiêu chuẩn đạo đức," Gary Marcus, khoa học gia từ Đại học New York và là CEO đồng thời sáng lập viên của Geometric Intelligence nói.

Một số người cho rằng câu trả lời nên là tìm cách để máy có thể đưa ra phán đoán và quyết định phù hợp với khuôn khổ đạo đức của con người, phản ánh được các quy tắc đạo đức khác nhau trong từng tình huống.

"Chúng ta có trực giác trong việc đánh giá xem điều gì là chấp nhận được về mặt đạo đức bằng cách xem cách người khác xử sự và phản ứng ra sao trong các tình huống khác nhau," Colin Allen, giáo sư chuyên về ngành khoa học nhận thức và triết học từ Đại học Indiana nói.

"Nói cách khác thì chúng ta học được điều gì nên làm, điều gì không nên từ những người khác, nhận thức được mối nguy hiểm diễn ra từ những hành vi xấu do những mô hình xấu thực hiện. Máy tự động phải có được khả năng phân tích tương tự, nếu không nó sẽ phải chịu sự kiểm soát một cách nghiêm ngặt."

Trở lại nhà máy của DoDAAM ở Daejeon, các kỹ sư chưa có câu trả lời rõ ràng cho các vấn đề phát sinh từ quá trình phát triển công nghệ của họ.

"Sinh mạng con người là thứ quý giá hơn bất kỳ thứ gì khác, và đó là lý do khiến chúng tôi cài đặt phần kiểm soát của con người lên các tháp pháo," Song nói.

Thế nhưng với Park và các kỹ sư khác trong bộ phận nghiên cứu thì đó chỉ là một giải pháp tạm thời.

Mục tiêu của họ là làm ra sản phẩm "thông minh hơn', nhờ việc tập trung "tăng chức năng nhả đạn tự động của súng", áp dụng khả năng "nhận diện mục tiêu" và tạo ra "những hệ thống được kết nối hoàn toàn" theo đó các tháp pháo được liên kết với nhau, tạo ra một vùng kiểm soát rộng lớn hơn.

Bất kể tương lai sẽ ra sao thì các cỗ máy có khả năng tìm, đeo bám, cảnh báo và tiêu diệt con người mà không cần đến sự can thiệp của con người cũng đã tồn tại trong thế giới của chúng ta.

Nếu không có những quy định quốc tế rõ ràng, thì điều duy nhất khiến các hãng sản xuất vũ khí không bán những cỗ máy như thế ra thị trường chỉ là đạo đức, không phải của các kỹ sư lập trình hay của robot, mà của các khách hàng đặt mua.

"Nếu có ai muốn mua tháp pháo không kèm phần kiểm soát như hiện chúng tôi đang cài đặt, thì tất nhiên là chúng tôi sẽ khuyên họ cân nhắc kỹ và nêu cho họ thấy các nguy cơ có thể xảy ra," Park nói.

"Nhưng họ rốt cuộc vẫn có quyền quyết định là họ muốn gì. Và chúng tôi sẽ phục vụ theo nhu cầu của khách hàng."

 


Cùng chuyên mục

 

  Ý kiến bạn đọc

  Ẩn/Hiện ý kiến