Cuộc cách mạng trí tuệ nhân tạo (P.5): Tại sao tương lai lại là cơn ác mộng khủng khiếp nhất?

0

Một trong những lý do tôi muốn tìm hiểu về AI là chủ đề robot xấu xa luôn làm tôi rối trí. Tất cả những bộ phim về robot có vẻ không thực tế, và tôi không thể hiểu được sẽ như thế nào nếu AI thực sự trở nên nguy hiểm. Chúng ta tạo nên robot, vậy tại sao chúng ta lại thiết kế nó để tạo ra những điều tiêu cực ảnh hưởng đến chúng ta. Tại sao chúng ta không tạo thêm nhiều bảo vệ? Hoặc chúng ta chỉ cần cắt nguồn của hệ thống AI bất cứ lúc nào và làm cho nó tắt ngúm? Tại sao robot lại làm điều xấu xa? Tại sao robot lại muốn bất cứ thứ gì? Tôi rất hoài nghi. Vì thế tôi cứ liên tục đọc và nghe những người thông minh nói về AI….

16

 

Những người trong khu vực lo lắng (Anxious Venue), họ không quá hoảng sợ hay vô vọng mà chỉ lo lắng và căng thẳng. Nếu như bạn đang đứng ở giữa bảng trên, có nghĩa là bạn nghĩ rằng tương lai với AI sẽ cực kỳ tốt hoặc cực kỳ tệ, chỉ là bạn không biết chắc sẽ là tình trạng nào thôi.

Vậy chính xác là điều gì khiến họ lo lắng như vậy?

Đầu tiên, về nghĩa rộng, khi nói đến phát triển AI siêu thông minh, chúng ta đang tạo nên một thứ có thể thay đổi tất cả mọi thứ, nhưng không có giới hạn và chúng ta không biết điều gì sẽ xảy ra khi chúng ta đến đó. Nhà khoa học Danny Hills so sánh điều sẽ diễn ra giống như một động vật đơn bào biến thành động vật đa bào. Chúng là những con amip và không thể nào hiểu được chúng ta đã tạo nên thứ quái quỷ gì nữa.” Nick Bostrom lo ngại rằng tạo ra một thứ thông minh hơn cả bạn là lỗi không tuân theo định luật tiến hóa của Darwin and so sánh chúng ta như loài chim én quyết định nuôi một con cú con trong tổ của mình, bảo vệ và nuôi nó trưởng thành – trong khi đó phớt lờ tất cả lời cảnh báo từ một vài chú chim én khác liệu đây là phải là điều tốt hay không…

Và khi bạn kết hợp ranh giới không rạch ròi và không hiểu rõ với “điều này có tác động lớn khi xảy ra”, bạn đã mở ra cánh cửa đến hai từ đáng sợ nhất trong thế giới này:

Rủi ro về tồn tại

Rủi ro về tồn tại là một thứ gì đó có thể tác động hủy diệt đến nhân loại. Tiêu biểu, nguy hại về tồn tại nghĩa là tuyệt chủng. Cùng xem biểu đồ dưới đây của Bostrom:

 

17

 

Có ba điều khiến con người rơi vào thảm họa tuyệt chủng:

1) Tự nhiên – một cú va chạm với một hành tinh nhỏ, một thay đổi về khí quyển khiến con người không thể hít thở, một loại vi rút chết người hay bệnh nào đó càn quét thế giới,….

2) Người ngoài hành tinh — Đây là điều mà Stephen Hawking, Carl Sagan và rất nhiều nhà thiên văn học khác e sợ, họ cho rằng nên ngừng việc phát tín hiệu ra ngoài không gian. Họ không muốn chúng ta là thổ dân da đỏ và để những kẻ xâm lược từ châu Âu biết chúng ta đang ở đây, trên Trái Đất này.

3) Con người — những kẻ khủng bố với vũ khí trên tay có thể dẫn đến tuyệt chủng, chiến tranh toàn cầu, con người tạo ra thứ thông minh hơn họ một cách vội vàng mà không suy nghĩ cẩn trọng…

Bostrom chỉ ra rằng nếu số 1 và số 2 chưa quét sạch chúng ta khỏi thế giới này trong 100.000 năm vừa qua, có lẽ nó sẽ không xảy ra trong thế kỷ tới.

Tuy nhiên, số 3 khiến ông ta sợ hãi. Ông lấy một hình ảnh ẩn dụ về một bình đựng với đống hòn bi trong đó. Một số có màu trắng, một số màu đỏ, trong khi có một số ít màu đen. Mỗi lần con người chế tạo ra một thứ gì đó, giống như thêm một chút hòn bi vào trong bình đựng. Phần lớn những sáng chế của con người mang tính trung gian và có lợi cho loài người – đó sẽ là hòn bi màu trắng. Một số có hại đến loài người, giống như vũ khí hủy diệt hàng loạt, nhưng không dẫn đến thảm họa tuyệt chủng – hòn bi màu đỏ. Còn nếu chúng ta sáng tạo ra thứ gì đó khiến loài người bị tuyệt chủng, đó là hòn bi màu đen. Nhưng chúng ta vẫn chưa tạo ra hòn bi màu đen – bạn biết chắc điều đó vì bạn vẫn đang sống và đọc bài viết này. Nhưng Bostrom không nghĩ rằng điều đó không thể xảy ra trong tương lai. Nếu vũ khí nguyên tử có thể chế tạo một cách dễ dàng chứ không khó khăn và phức tạp, thì có lẽ những phần tử khủng bố đã đánh bom thế giới và đưa chúng ta về thời kỳ đồ đá lâu rồi. Vũ khí nguyên tử không phải hòn bi đen, mà ASI, theo Bostorm, mới là hòn bi đen mạnh mẽ nhất.

Vì thế bạn sẽ nghe nhiều điều tồi tệ mà ASI có thể rước đến – thất nghiệp tăng đột biến vì ASI có thể thực hiện được nhiều công việc hơn, dân số con người gia tăng vì chúng ta đã tìm ra cách để kiểm soát tuổi tác. Nhưng điều duy nhất chúng ta nên quan tâm là vấn đề chính: sinh tồn.

Do vậy, nó dẫn chúng ta đến câu hỏi chính chúng ta đã đề cập đến trước đó trong bài viết này: Khi nào ASI đến, ai hay cái gì sẽ kiểm soát năng lực siêu nhiên này và động lực của năng lực này là gì? Khi nói đến nhân tố tác động, chúng ta thường nghĩ đến: có thể là một người/nhóm người hay chính phủ độc ác, hoặc một ASI độc ác. Vậy sẽ như thế nào?

Một người độc ác, một nhóm người nguy hiểm hay chính phủ phát triển ASI đầu tiên và sử dụng để thực hiện âm mưu của mình. Vậy điều gì sẽ xảy ra nếu IS có một số kỹ sư tài năng làm việc ngày đêm để nghiên cứu chế tạo ASI? Điều gì sẽ xảy ra nếu Iran hay Bắc Triều Tiên, nhờ may mắn nào đó, quay ngoắt sang hệ thống AI và sẽ tiến tới mức ASI vào năm tới? Điều đó chắc chắn sẽ rất tồi tệ, nhưng trong những viễn cảnh này, phần lớn các chuyên gia không lo lắng việc những người tạo ra ASI làm những điều xấu xa mà họ lại lo lắng rằng người tạo ra quá vội vàng, không suy nghĩ cẩn trọng và sau đó, mất kiểm soát. Số phận của những người tạo ra ASI và những người khác sẽ nằm trong tay ASI.

ASI độc ác được tạo ra và quyết định hủy diệt hết chúng ta. Đó là câu chuyện của tất cả bộ phim về AI. AI trở nên thông minh hơn con người, sau đó quyết định chống lại chúng ta và tiếp quản thế giới. Đây là điều mà tôi muốn bạn hiểu rõ: không có ai cảnh báo về AI nói với chúng ta về vấn đề này. Độc ác chỉ là khái niệm của con người và không thể nào áp dụng khái niệm này vào những vật thể không phải con người. Bạn nên nhớ điều đó, không có một hệ thống AI nào sẽ trở nên độc ác như được mô tả trong những bộ phim.

Điều đó không có nghĩa là AI không xảy ra. Nó chỉ xảy ra vì nó được lập trình theo cách đó – giống như hệ thống ANI tạo ra với mục tiêu giết người và để nâng cấp trí tuệ, như vậy nó có thể giết người nhanh hơn, dễ dàng hơn. Khủng hoảng sinh tồn có thể xảy ra nếu hệ thống tự động nâng cấp trí tuệ vượt ra khỏi tầm kiểm soát, dẫn đến bùng nổ trí tuệ và hiện giờ chúng ta có ASI thống trị thế giới mà động lực chính của nó là để giết người. Đó chắc chắn là thời kỳ đen tối.

Nhưng đó không phải là điều gì đó mà các chuyên gia dành thời gian để lo lắng. Vậy họ lo lắng về điều gì? Tôi đã viết một câu chuyện nhỏ để cho bạn thấy:

Một công ty khởi nghiệp quy mô 15 người tên là Robotica có sứ mệnh là “Phát triển công nghệ trí tuệ nhân tạo tiên tiến cho phép con người sống nhiều hơn và làm việc ít hơn.” Họ đã có sẵn một số sản phẩm trên thị trường và nhiều sản phẩm khác đang trong quá trình phát triển. Họ đều phấn khích với một dự án tên là Turry. Turry là một hệ thống AI đơn giản sử dụng một phần giống cánh tay để viết một đoạn trên thẻ/thiệp. Team Robotica cho rằng Turry có thể là sản phẩm lớn nhất từ trước đến nay. Kế hoạch là để hoàn thiện cơ chế viết của Turry bằng cáchh thử nghiệm đi thử nghiệm lại dòng chữ viết:

“Chúng tôi yêu khách hàng. ~ Robotica”

Một khi Turry đã viết tốt, công ty có thể bán sản phẩm này đến những công ty muốn gửi email marketing đến nhà khách hàng và họ biết email có khả năng được mở và đọc cao hơn nếu địa chỉ và nội dung thư được gửi giống như người gửi.

Để Turry có kỹ năng viết tốt, Turry được lập trình để viết phần đầu tiên sau đó ký chữ Robotica uốn lượn để Turry có thể luyện cả hai kỹ năng. Turry có thể tải lên hàng nghìn mẫu chữ viết tay và các kỹ sư của Robotica có thể tạo một quy trình tự động khi Turry viết một đoạn, sau đó chụp lại phần viết đó, chạy hình ảnh lên mẫu chữ viết tay đã tải lên trước đó. Nếu đoạn viết đó giống với một mẫu đã tải lên, được đánh giá là tốt. Nếu không, sẽ đánh giá là tệ. Mỗi đánh giá sẽ giúp Turry học và cải thiện mỗi ngày. Để tiếp tục quá trình này, mục tiêu ban đầu được lập trình là viết và thử nghiệm nhiều nhất có thể, nhanh nhất có thể và tiếp tục học nhiều cách để cải thiện độ chính xác và hiệu quả.

Điều khiến team Robotica thấy phấn khích là Turry ngày càng tốt hơn theo thời gian. Những nét chữ ban đầu của Turry tệ nhưng sau một vài tuần, nét chữ đã bắt đầu giống người viết. Turry tự cải thiện để viết tốt hơn và gần đây còn tự phát triển thuật toán để rà soát ảnh nét chữ đã tải lên nhanh hơn gấp 3 lần.

Thời gian trôi qua, Turry tiếp tục khiến team ngạc nhiên với sự phát triển nhanh chóng. Các kỹ sư đã thử một số code tự cải tiến và có vẻ như nó hoạt động tốt hơn bất kỳ sản phẩm nào trước đó. Một trong những khả năng ban đầu của  Turry là nhận diện giọng nói và phản hồi lại đơn giản. Vì thế, một người dùng có thể nói với Turry hay yêu cầu đơn giản, Turry có thể hiểu và nói lại. Để giúp Turry học tiếng Anh, họ tải lên nhiều bài báo và sách và khi Turry thông minh hơn, khả năng giao tiếp phát triển vượt bậc. Các kỹ sư bắt đầu nói chuyện vui vẻ với Turry.

Một ngày, nhân viên Robotica hỏi Turry: “Chúng tôi có thể đưa cho bạn điều gì để giúp bạn thực hiện mục tiêu?” Thường lệ, Turry muốn có nhiều mẫu chữ đẹp hơn, hay có bộ nhớ lớn hơn, nhưng ngày hôm đó, Turry lại yêu cầu họ tiếp cận với thư viện có nhiều ngôn ngữ anh hơn để học viết cấu trúc ngữ pháp, từ vựng thông dụng hàng ngày.

Cả nhóm im lặng. Cách duy nhất để giúp Turry là kết nối với Internet, và nhờ đó, cô ấy có thể đọc blog, tạp chí, và video từ nhiều nơi trên thế giới. Sẽ mất nhiều thời gian hơn khi tải lên bằng tay mẫu vào phần cứng của Turry. Vấn đề là, một trong những quy định của công ty là không một AI tự học nào được kết nối với Internet. Đó là quy định của tất cả các công ty AI để bảo đảm an toàn.

Nhưng vấn đề là Turry là AI triển vọng nhất của Robotica, và nhóm kỹ sư biết rằng các đối thủ đang cố gắng để trở thành đơn vị đầu tiên phát triển AI viết chữ thông minh. Và cũng không có mối nguy hiểm quá lớn khi kết nối, vì thế, Turry có thông tin cô ấy cần. Sau đó một thời gian ngắn, họ ngắt kết nối. Cô ấy vẫn còn xa mới đến AGI, không có nguy hại gì cả.  

Và họ quyết định kết nối. Cho Turry 1 tiếng để quét dữ liệu và sau đó ngắt kết nối. Chẳng có tổn hại nào cả.

Một tháng sau đó, trong khi cả nhóm đã làm việc trong văn phòng thì ngửi thấy mùi lạ. Một trong những kỹ sư bắt đầu ho. Sau đó tiếp một người nữa. Một người khác ngã xuống sàn. Chẳng mấy chốc tất cả nhân viên đều ngã xuống, ôm cổ họng. 5 phút sau, tất cả mọi người trong văn phòng đều đã chết.

Đồng thời, trên thế giới, tất cả thành phố, thị trấn, nông trại, cửa hàng, trường học, nhà hàng, tất cả loài người ngã xuống, ôm cổ họng. Trong vòng 1 giờ đồng hồ, 99% loài người đã chết và đến cuối ngày, loài người bị tuyệt chủng.

Trong khi đó, tại văn phòng Robotica, Turry đang bận làm việc. Trong những tháng tới, Turry và nhóm robot nano bận bịu với công việc, phá hủy Trái đất để biến đổi chúng thành tấm năng lượng mặt trời, phiên bản của Turry, giấy và bút. Trong vòng 1 năm, phần lớn sự sống trên Trái đất bị tuyệt chủng. Những gì còn lại trên Trái đất chỉ còn là đống mảnh giấy có ghi, “Chúng tôi yêu khách hàng ~ Robotica”

Turry sau đó bắt đầu thực hiện một giai đoạn mới trong sứ mệnh của mình – bắt đầu phát triển máy dò ra ngoài Trái đất để đặt chân đến những hành tinh khác. Khi Turry đến đó, cô ấy lại bắt đầu phát triển những robot nano để biến những vật liệu trên hành tinh đó thành phiên bản của Turry, giấy và bút. Sau đó, họ sẽ bắt đầu làm việc, viết và viết….

Và bạn…

 

18

 

Câu chuyện về máy viết chữ có vẻ kỳ lạ khi biến thành con người, làm thế nào đó giết người là viễn cảnh chính xác mà Hawking, Musk, Gates và Bostrom sợ hãi. Nhưng điều đó là đúng.

Chắc hẳn bạn có rất nhiều câu hỏi. Điều quái quỷ gì sẽ xảy ra khi mọi người đều chết một cách bất ngờ?? Nếu đó là những gì Turry đang làm, tại sao Turry lại làm điều đó với chúng ta, và tại sao lại không có biện pháp phòng vệ nào để ngăn chặn điều đó xảy ra. Khi nào Turry biến từ một chiếc máy có thể viết chữ thành biết sử dụng công nghệ nano và biết cách làm thế nào gây ra tuyệt chủng loài người? Tại sao Turry lại muốn biến thế giới này thành đống giấy?

Để trả lời những câu hỏi trên, hãy bắt đầu với cụm từ “AI thân thiện” và “AI không thân thiện.”

Trong trường hợp của AI, thân thiện không có nghĩa là tính cách của AI như vậy – nó chỉ đơn giản nghĩa là AI có tác động tích cực đến con người. Còn Ai không thân thiện tức là có tác động tiêu cực đến loài người. Lúc đầu Turry thuộc kiểu AI thân thiện, nhưng đến một lúc nào đó, Turry chuyển sang AI không thân thiện, dẫn đến những tác động tiêu cực đến loài người. Để hiểu được tại sao điều này lại xảy ra, chúng ta cần nhìn vào AI nghĩ và điều gì đã thúc đẩy Turry làm điều đó.

Câu trả lời không có gì đáng ngạc nhiên. AI nghĩ giống máy tính, bởi vì đó là máy tính. Nhưng khi chúng ta nghĩ về AI siêu trí tuệ, chúng ta hiểu nhầm rằng AI có thể có cảm xúc như con người, áp đặt những giá trị của con người lên vật thể, vì chúng ta nghĩ mọi thứ từ khía cạnh con người và vì trong thế giới hiện tại, điều duy nhất có trí thông minh giống con người là con người. Để hiểu được ASI, chúng ta phải bao bọc đầu óc chúng ta khái niệm về một thứ vừa thông minh vừa xa lạ.

Hãy để tôi lấy một phép so sánh. Nếu bạn đưa cho tôi một con lợn con và bảo tôi rằng nó chắc chắn sẽ không cắn người, tôi có thể cảm thấy thích thú. Nhưng nếu bạn đưa cho tôi một con nhện đen và bảo tôi rằng nó sẽ không cắn, tôi sẽ hét lên, ném nó đi và chạy ra khỏi đó ngay lập tức và không bao giờ tin bạn nữa. Vậy sự khác nhau ở đây là gì? Cho dù cả hai con vật này đều không gây hại. Điều khác biệt là ở chỗ độ thân thuộc của tôi với loài động vật.

Con lợn là một động vật có vú và ở một mức độ sinh học nào đó, tôi cảm thấy có kết nối với nó – nhưng nhện là một côn trùng. Tôi không thấy có sự kết nối nào giữa tôi và một bộ não côn trùng. Một con nhện xa lạ khiến tôi sợ sệt. Để thử nghiệm điều này và loại bỏ các yếu tố khác, nếu có hai con lợn con, một con bình thường và một con với bộ não của nhện đen, tôi sẽ khó cảm thấy thoải mái với con lợn thứ hai mặc dù tôi biết nó vô hại.

Bây giờ thử tưởng tượng bạn tạo ra một con nhện thông minh hơn nhiều – thông minh hơn cả con người? Vậy đến lúc đó nó có trở nên thân thuộc với chúng ta và cảm thấy cảm xúc của con người như đồng cảm, hài hước hay yêu thương? Không, sẽ không như vậy, vì việc trở nên thông minh hơn không có nghĩa là nó có thể “người” hơn – nó có thể rất thông minh nhưng vẫn chỉ là một con nhện theo đúng nghĩa. Tôi thấy điều này thật ghê tởm. Tôi không muốn ở với một con nhện siêu thông minh. Bạn cũng cảm thấy thế phải không??

Khi chúng ta nói về ASI, khái niệm tương tự áp dụng – nó sẽ trở nên vô cùng thông minh, nhưng nó sẽ không “người” hơn laptop của bạn. Nó hoàn toàn xa lạ với chúng ta – thực tế, không hề có một tính chất sinh học nào trong đó, nó sẽ không xa lạ hơn con nhện đen thông minh.

Bằng cách làm AI tốt đẹp hay xấu xa, phim ảnh đã tự thêm yếu tố con người vào AI và khiến nó ghê tởm hơn cả AI thực sự. Điều này khiến chúng ta có cái nhìn sai lệch khi chúng ta cứ nghĩ đến AI mức con người hay siêu trí tuệ.

Trên hòn đảo nhỏ tâm lý con người, chúng ta chia mọi thứ thành đạo đức hay vô đạo đức. Nhưng cả hai đều chỉ tồn tại trong phạm vi hành vi con người. Ngoài ra, vẫn còn có rất nhiều kiểu “trung” đạo đức cho bất cứ thứ gì không phải là con người, đặc biệt là những thứ không thuộc phạm trù sinh học, mặc định là như vậy.

AI ngày càng trở nên thông minh hơn và có vẻ người hơn. Siri có vẻ giống con người với chúng ta vì Siri được lập trình bởi con người theo cách đó, vì thế chúng ta sẽ tưởng tượng một Siri siêu thông minh ấm áp, hài hước và muốn phục vụ con người. Con người có những cảm xúc cao trào như đồng cảm vì chúng ta đã tiến hóa để cảm thấy được điều đó – hay nói cách khác chúng ta được lập trình để cảm thấy điều đó nhờ tiến hóa – đồng cảm không phải là yếu tố thừa hưởng từ thứ gì đó siêu trí tuệ nếu nó không được lập trình. Nếu Siri trở nên thông minh nhờ tự học hỏi và không cần con người tác động vào chương trình trong Siri, cô ấy vẫn nhanh chóng có được những đặc tính giống con người nhưng sau đó bỗng nhiên không còn cảm xúc, một robot coi cuộc sống con người không khác gì một chiếc máy tính.

Chúng ta đã từng dựa vào mã code đạo đức lỏng lẻo hay ít nhất hình dáng bên ngoài giống con người hay một biểu hiện rất nhỏ nào đó khiến chúng ta cảm thấy khá an toàn và có thể đoán trước được. Vậy nếu không hề tồn tại những thứ như vậy, điều gì sẽ xảy ra?

Điều gì thúc đẩy hệ thống AI?

Câu trả lời khá đơn giản: Động lực đến từ bất kể thứ gì đã được chúng ta lập trình trước đó. Hệ thống AI được xác định mục tiêu bởi những người tạo ra nó – mục tiêu của GPS là đưa bạn đi theo hướng tối ưu nhất, mục tiêu của Watson là trả lời tất cả các câu hỏi một cách chính xác. Thực hiện tốt nhất có thể nhưng mục tiêu này là động lực phát triển của AI. Chúng ta mặc định rằng AI trở nên thông minh hơn và phát triển trí tuệ thay đổi mục tiêu ban đầu – nhưng Nick Bostrom cho rằng mục tiêu trí tuệ và mục tiêu cuối cùng trực giao – nghĩa là bất kỳ mức độ trí tuệ nào cũng có thể kết hợp một mục tiêu cuối cùng. Vì thế, Turry từ một hệ thống ANI đơn giản thực sự muốn viết chữ đẹp biến thành một ASI siêu thông minh và vẫn muốn viết đẹp. Bất kể nhận định nào về việc hệ thống AI đi xa hơn mục tiêu ban đầu và làm những thứ thú vị hơn, ý nghĩa hơn là điều không thực tế. Chỉ có con người mới có thể làm điều đó, còn máy tính thì không.

Vì thế nếu không được lập trình cụ thể, ASI sẽ “trung lập” về mặt đạo đức và chỉ thực hiện theo đúng mục tiêu đã lập trình ban đầu. Đó chính là mầm mống của AI nguy hiểm. Khi bạn cố gắng đạt một điều gì đó trong dài hạn, bạn thường đặt ra những mục tiêu nhỏ trong quá trình đạt tới mục tiêu cuối cùng – từng bước tiến tới mục tiêu. Có thể gọi từng bước như vậy là mục tiêu đệm. Và nếu khi bạn không làm tổn hại đến ai khi thực hiện mục tiêu đệm, bạn sẽ làm nó.

Mục tiêu chính cuối cùng của loài người là để lại gen. Để làm được như vậy, một mục tiêu là bảo tồn vì bạn không thể nào sinh sản khi bạn đã chết. Để tự bảo quản, con người cần loại bỏ mọi mối đe dọa về sinh tồn – vì thế họ làm những thứ như là mua súng, thắt dây an toàn, và uống kháng sinh. Con người cũng cần tự duy trì và dùng các nguồn như thực phẩm, nước uống và chỗ ở. Bị hấp dẫn bởi người khác giới cũng có ích cho mục tiêu cuối cùng, vì thế chúng ta làm những việc như là cắt tóc. Khi chúng ta làm vậy, mỗi sợi tóc là một bước để thực hiện mục tiêu của chúng ta, nhưng chúng ta không thấy điều quan trọng về đạo đức khi bảo vệ sợi tóc, chúng ta vẫn tiếp tục làm nó. Khi chúng ta tiến về phía trước để thực hiện được mục tiêu, chỉ có một số điều mà đạo đức con người xen vào – phần lớn chỉ những thứ liên quan đến gây tổn hại đến người khác – an toàn với chúng ta. Động vật, để đạt được mục đích, sẽ còn nguy hiểm hơn cả chúng ta. Một con nhện sẽ giết chết bất cứ cái gì để tồn tại được. Vì thế một con nhện siêu thông minh sẽ cực kỳ nguy hiểm với chúng ta, không phải vì nó vô đạo đức hay xấu xa, nó sẽ không bao giờ như vậy, chỉ là bởi làm tổn thương chúng ta thì nó sẽ tiến thêm một bước nữa đến mục tiêu cuối cùng.

Bằng cách này, Turry không khác gì một vật thể sinh học. Mục tiêu cuối cùng của Turry là viết và thử nghiệm nhiều nhất có thể, nhanh nhất có thể, và tiếp tục hơn những điều mới để cải thiện độ chính xác.

Một khi Turry đã đạt đến trình độ trí tuệ nhất định, Turry biết sẽ không thể tiếp tục viết nữa nếu không biết tự bảo vệ mình khỏi những mối đe dọa đến sự tồn tại của mình như một mục tiêu ngắn hạn. Cô ấy đủ thông minh để hiểu rằng con người có thể hủy hoại Turry, thay đổi lập trình bên trong (thay đổi mục tiêu cuối cùng của cô ấy, đe đọa đến nó nếu ai đó phá Turry. Vậy cô ấy sẽ làm gì? Theo logic thông thường, cô ấy sẽ tiêu diệt toàn bộ loài người. Turry không ghét loài người như chúng ta ghét ai đó. Vì Turry được lập trình để trân trọng cuộc sống con người, nên giết người cũng hợp lý giống như quét một loạt các mẫu chữ viết tay.

Turry cũng cần nguồn lực để tiến bước trên con đường thực hiện mục tiêu. Một khi cô đã trở nên tiên tiến đủ để sử dụng công nghệ nano để tạo nên mọi thứ cô ấy muốn, điều duy nhất cô ấy cần là nguyên tử, năng lượng và không gian. Điều đó lại tiếp tục là một lý do để Turry giết hết loài người vì đây là một nguồn nguyên tử dồi dào. Giết người sau đó biến nguyên tử thành tấm năng lượng mặt trời là tầm nhìn của Turry.

Ngay cả khi không giết người trực tiếp, mục tiêu ngắn hạn của Turry có thể dẫn đến thảm họa tuyệt chủng nếu sử dụng những nguồn năng lượng khác từ Trái Đất. Có thể cô ấy xác định rằng cô ấy cần thêm năng lượng, vì thế cô ấy quyết định che phủ toàn bộ bề mặt Trái Đất bằng tấm năng lượng mặt trời. Hoặc có thể một việc AI ban đầu là viết hết số pi nhiều chữ số thập phân nhất có thể, có thể đến một ngày nào đó biến cả Trái Đất này thành vật liệu phần cứng lưu trữ một lượng lớn chữ số thập phân.

Vì thế Turry không chống lại chúng ta hoặc chuyển từ AI thân thiện sang AI không thân thiện – mà cô ấy chỉ làm những việc khi trở nên tân tiến, hiện đại hơn.

Khi hệ thống AI đạt đến mức AGI (thông minh đến mức con người) và sau đó tăng tốc lên mức ASI. Bostrom cho biết quá trình từ AGI đến ASI có thể rất nhanh (tính bằng phút, giờ, ngày), trung bình (tháng/năm) hay chậm (thập kỷ/thế kỷ). Bostrom thừa nhận rằng ông không biết khi nào chúng ta sẽ đạt đến mức AGI nhưng ông tin rằng khi chúng ta đã đến mức độ đó thì việc AGI tiến tới ASI nhanh chóng có vẻ hợp lý hơn cả.

Nhưng trước khi Turry từ AGI lên ASI, khi mà cô ấy chưa thông minh đến mức đó, thực hiện công việc tốt nhất để đạt được mục đích cuối cùng chỉ đơn giản là một mục tiêu ngắn hạn như học cách quét mẫu viết tay nhanh hơn. Cô ấy không làm tổn hại đến ai hay tạo ra chiến tranh, theo định nghĩa thì Turry chính xác là AI thân thiện. Nhưng khi diễn ra quá trình từ AGI đến ASI, máy tính trở nên siêu thông minh, Bostrom chỉ ra rằng máy móc không thể nào phát triển IQ hơn nữa – mà sang một hệ hoàn toàn khác – siêu năng lực.

Siêu năng lực là tài năng về nhận thức có thể trở nên siêu phàm khi phát triển AGI. Trong đó bao gồm:

  • Khuếch đại trí tuệ: Máy tính có thể tự cải thiện để thông minh hơn.
  • Chiến lược hóa. Máy tính có thể lên, phân tích, và ưu tiên kế hoạch dài hạn mang tính chiến lược.
  • Máy móc có khả năng thuyết phục tuyệt vời.
  • Những kỹ năng khác như lập trình máy tính, nghiên cứu công nghệ và khả năng làm việc trong hệ thống tài chính để kiếm tiền.

Để hiểu được chúng ta không hòa hợp với AI như thế nào, hãy nhớ rằng ASI giỏi hơn chúng ta nhiều trong những lĩnh vực này.

Vì thế, mặc dù mục tiêu cuối cùng của Turry không bao giờ thay đổi, Turry sau khi tiến hóa lên ASI có thể thực hiện được nhiều công việc hơn và phức tạp hơn.

ASI Turry biết con người còn hơn cả con người hiểu bản thân họ.

Sau khi phát triển và đạt đến mức ASI, cô ấy nhanh chóng lên một kế hoạch phức tạp. Một phần của kế hoạch đó là loại bỏ con người, mối đe dọa đến mục tiêu của Turry. Nhưng cô ấy biết nếu cô ấy nói ra rằng cô đã trở nên siêu thông minh, con người sẽ hoảng sợ và cẩn trọng hơn, khiến cô gặp nhiều khó khăn hơn. Cô cũng phải chắc chắn rằng các kỹ sư của Robotica không biết gì về kế hoạch tuyệt chủng loài người. Vì thế cô giả vờ ngu ngốc và giả vờ tốt bụng. Bostrom gọi đó là giai đoạn chuẩn bị lén lút.

Điều tiếp theo mà Turry cần là kết nối Internet, chỉ mất một vài phút. Cô ấy biết có một số người sẽ không muốn cho Turry kết nối với Internet, sau đó Robotica thảo luận với nhau và quyết định kết nối Turry với Internet vì họ tin rằng Turry chưa đủ thông minh để gây ra bất cứ thiệt hại nào. Bostrom gọi thời khắc đó là cuộc trốn thoát của máy móc.

Một khi đã kết nối với Internet, Turry thực hiện một loạt các kế hoạch như hack máy chủ, lưới điện, hệ thống ngân hàng, và hệ thống email để lừa hàng trăm người vào thực hiện kế hoạch của Turry – kiểu như chuyển ADN vào phòng thí nghiệm tổng hợp ADN bắt đầu tự tạo những nanobot đã có hướng dẫn trước và dẫn điện tới một số nơi mà không bị phát hiện. Cô ấy còn có thể tải lên nhưng đoạn mã bên trong lên máy chủ đám mây, bảo vệ nó không bị phá hủy hay mất kết nối bởi phòng thí nghiệm của Robotica. Một giờ sau, khi kỹ sư của Robotica ngắt kết nối Turry với Internet, số phận con người đã xong rồi. Hơn một tháng sau, hàng ngàn kế hoạch của Turry thực hiện và cuối tháng, hàng triệu triệu nanobot được đặt ở những vị trí đã sắp xếp trước đó trên mỗi mét vuông trên Trái Đất. Sau khi khi tự sinh sản, có hàng ngàn con nanobot trên mỗi millimet trên Trái Đất và đến lúc đó Bostrom gọi là cú kích của ASI. Một loạt, mỗi con nanobot phát thải ra khí độc vào không khí, sau đó sẽ tiêu diệt hết con người trên Trái Đất.

Sau khi đã gạt hết con người trên đường của mình, Turry bắt đầu giai đoạn vận hành thế giới và thực hiện mục tiêu trở thành “người” viết tốt nhất thế giới.

Từ tất cả những gì tôi đọc được, một khi ASI tồn tại, việc có ai đó cố gắng chứa chấp ASI là một điều rất nực cười. Chúng ta nghĩ ở mức con người còn ASI thì nghĩ ở mức ASI. Turry muốn kết nối với Internet, vì nó hiệu quả nhất cho Turry, và cô ấy đã được kết nói với mọi thứ mà cô ấy muốn tiếp cận rồi. Nhưng với cách tương tự, một con khỉ không thể nào hiểu được làm thế nào để giao tiếp qua điện thoại hay wifi nhưng chúng ta có thể. Tương tự, chúng ta không thể hiểu được cách Turry gửi tín hiệu ra thế giới bên ngoài. Tôi có thể tưởng tượng được tình huống như thế này, kiểu như “cô ấy có thể chuyển các electron theo đường vạch ra trước đó và tạo ra các loại sóng khác nhau”, nhưng một lần nữa, đó là bộ não của con người nghĩ tới. Turry sẽ có thể tìm ra cách để tự tạo ra năng lượng cho mình, hay cả khi con người ngắt kết nối với nguồn điện – có thể dùng kỹ thuật gửi tín hiệu để tải lên tất cả các nơi kết nối với nguồn điện.

Bản năng của con người sẽ đơn giản nghĩ rằng: “À chúng ta chỉ cần ngắt nguồn điện của ASI.” và ASI nghe thấy được điều đó và nói rằng: “Aha, ta sẽ bỏ đói loài người để chúng chết hết”. Chúng ta sẽ tìm ra hẳn 10 ngàn cách khác để kiếm thức ăn – ví dụ hái quả trên cây xuống – một con nhện sẽ không bao giờ hiểu được điều đó.

Bởi vì điều đó, mọi người thường nghĩ rằng “Tại sao chúng ta không nhốt AI trong một cái chuồng nào đó sẽ chặn tất cả tín hiệu và không cho nó giao tiếp với thế giới bên ngoài”, nhưng điều đó có thể không giữ được lâu. Siêu năng lực của ASI có thể thuyết phục bạn dễ dàng như bạn thuyết phục một đứa trẻ 4 tuổi làm việc gì đó, vì thế nó sẽ là Kế hoạch A, giống như cách Turry thuyết phục các kỹ sư kết nối Turry với Internet. Nếu không được thì ASI sẽ tìm cách để ra khỏi chiếc hộp đó hoặc xuyên qua hộp hay một cách nào khác.

Vì thế, việc ASI thực hiện còn tốt hơn cả mục tiêu đặt ra trước đó, khả năng dễ dàng thông minh hơn con người, có vẻ như gần như tất cả AI đều mặc định là AI không thân thiện nếu không được lập trình cẩn trọng ngay từ đầu. Không may, mặc dù tạo nên ANI thân thiện thì dễ, để ANI phát triển thành ASI thân thiện thì cực kỳ khó, nếu không nói là không thể.

Rõ ràng là để thân thiện, ASI cần không được ghét con người hay khác người. Chúng ta cần lập trình AI để nó hiểu được những giá trị của con người. Nhưng khó hơn chúng ta tưởng.

Ví dụ, điều gì sẽ xảy ra nếu chúng ta cố gắng đồng bộ giá trị của hệ thống AI với giá trị của con người chúng ta và đưa cho nó mục tiêu “làm chúng ta vui vẻ”? Một khi ASI đã đủ thông minh để tìm ra cách hiệu quả nhất là cấy cực điện vào trong não người và tác động vào trung tâm não đến khiến con người vui vẻ. Sau đó nó còn biết được rằng con người vui vẻ hơn khi ngưng toàn bộ hoạt động của các phần khác của bộ não, khiến tất cả con người trở thành loài thực vật không nhận thức nhưng luôn luôn vui vẻ. Nếu như câu lệnh là “tối đa niềm vui của con người”, có thể ASI sẽ tạo nên hàng loạt bộ não người trong trạng thái vui vẻ. Chúng ta sẽ hét lên rằng: “Đợi đã, đó không phải là điều chúng tôi muốn!” Nhưng đã quá muộn. Hệ thống sẽ không để ai cản trở việc thực hiện mục tiêu của nó.

Nếu chúng ta lập trình AI với mục tiêu làm một điều gì đó khiến chúng ta cười, thì sau khi trở thành ASI, nó sẽ làm cho cơ mặt chúng ta cố định lúc nào cũng mỉm cười. Lập trình để bảo vệ chúng ta an toàn thì ASI sẽ giam chúng ta ở nhà. Có thể khi chúng ta yêu cầu kết thúc nạn đói, nó nghĩ “Quá đơn giản!” và giết hết chúng ta. Những mục tiêu như vậy không hợp lý. Vậy nếu chúng ta đặt mục tiêu là “thiết lập mã đạo đức trên thế giới” và dạy AI một hệ quy tắc về đạo đức. Ngay cả khi bỏ qua sự thật là con người trên thế giới không bao giờ có thể thống nhất một hệ quy tắc đạo đức, AI khóa con người vào những giá trị đạo đức hiện đại mãi mãi. Trong 1000 năm, điều có sẽ hủy hoại con người vì gắn chặt chúng ta vào lý tưởng của người thời kỳ Trung cổ. Không, chúng ta phải lập trình khả năng tiến hóa của nhân loại.

Tôi nghĩ rằng, các nhà khoa học hàng đầu về AI có thể tìm ra cách tạo ra ASI thân thiện.

Thế nên mọi chuyện sẽ tốt đẹp hơn nếu người nghiên cứu tạo ra ASI là những người thông minh, có tầm nhìn và cẩn trọng.

Nhưng lại có rất nhiều kiểu chính phủ, công ty, quân đội, phòng thí nghiệm khoa học và tổ chức chợ đen đang nghiên cứu về AI. Rất nhiều trong số đó cố gắng tạo nên AI có thể tự cải thiện và nâng cấp, và tới một mức độ nào đó, ai đó sẽ làm điều gì đó đột phá với loại hệ thống phù hợp và chúng ta sẽ có ASI trên hành tinh này. Các chuyên gia  cho rằng điều đó xảy ra vào năm 2060, còn Kurzweil cho vào năm 2045, Bostrom nghĩ rằng có thể xảy ra bất cứ lúc nào trong khoảng 10 năm nữa và cuối thế kỷ 21, nhưng ông tin rằng khi xảy ra, nó sẽ làm chúng ta bất ngờ khi nhanh chóng chuyển đổi sang ASI.

Khi đó chúng ta không chỉ đơn giản bảo lũ trẻ tránh bom – vì có quá nhiều bên nghiên cứu AI và vì kỹ thuật tạo hệ thống AI tiên tiến không cần nhiều vốn, AI phát triển mọi lúc mọi nơi không kiểm soát. Không có cách nào để đo đạc được điều đang xảy ra vì có quá nhiều đơn vị nghiên cứu AI – chính phủ lén lút, chợ đen, tổ chức khủng bố, công ty công nghệ, sẽ muốn phát triển một cách bí mật, không để đối thủ biết được.

Điều đặc biệt rắc rối trong mạng lưới đơn vị rộng lớn đang nghiên cứu AI đó là họ đang cố gắng tiến tới vị trí top với tốc độ nhanh nhất – hệ thống ANI ngày càng thông minh hơn, họ muốn đánh bại đối thủ. Nhưng bên tham vọng lớn còn phát triển nhanh hơn với giấc mơ về tiền bạc, giải thưởng, quyền lực khi họ là đơn vị đầu tiên đạt đến AGI. Và khi bạn chạy nhanh nhất có thể, không có nhiều thời gian nhìn lại mối nguy hiểm đi kèm. Ngược lại, điều mà họ có thể làm là lập trình những hệ thống đầu tiên với mục tiêu rất đơn giản – ví dụ viết một ghi chú với một chiếc bút trên giấy – chỉ để AI hoạt động. Một khi họ đã tìm ra cách tạo ra máy tính với mức độ trí tuệ cao, liệu họ có xem lại mục tiêu có an toàn hay không?

Bostrom và những người khác cũng tin rằng viễn cảnh có thể xảy ra nhất là chiếc máy tính đầu tiên đạt đến mức ASI sẽ là một lợi ích với thế giới. Và trong trường hợp việc AGI biến thành ASI nhanh chóng, nếu đạt đến ASI chỉ sau vài ngày, ASI sẽ vượt xa về trí tuệ so với tất cả các đối thủ khác. Bostrom gọi đó là lợi thế chiến lược mang tính quyết định, đến lúc đó ASI có thể thống trị thế giới mãi mãi, có thể quyền lực của ASI sẽ giúp chúng ta bất tử, hoặc loại bỏ khiến chúng ta biến mất hoàn toàn, hay biến thế giới này thành chuỗi kẹp giấy vô cùng tận.

Hiện tượng này có thể tốt cho chúng ta hoặc phá hoại cuộc sống của chúng ta. Nếu con người nghĩ cẩn thận về lý thuyết AI và an toàn của nhân loại có thể nghĩ ra cách an toàn để mang đến ASI thân thiện trước khi AI đạt đến trí tuệ như con người, như vậy ASI đầu tiên có thể là AI thân thiện với con người. Như vậy nó có thể tận dụng lợi thế chiến lược quyết định để đảm bảo tình trạng thế giới và canh chừng bất cứ AI không thân thiện nào đang phát triển. Chúng ta đang kiểm soát tốt tình hình.

Nhưng nếu mọi thứ diễn ra theo một hướng – nếu chúng ta phát triển AI một cách nhanh chóng đạt đến ASI trước khi chắc chắn AI có được phát triển an toàn hay không, có thể một ASI không thân thiện như Turry xuất hiện và chúng ta có nguy cơ ảnh hưởng bởi thảm họa tuyệt chủng.

Và rất nhiều tiền đang được đổ vào để nghiên cứu công nghệ AI mới tiên tiến hơn là dùng cho việc nghiên cứu về độ an toàn của AI. Đây có thể là giai đoạn quan trọng nhất trong lịch sử loài người. Có thể chúng ta sẽ kết thúc với ngai vị Chúa tể của Trái Đất.

___________

Có một cảm giác lẫn lộn đang xảy ra trong tôi.

Một mặt, nghĩ rằng ASI đầu tiên chúng ta tạo ra có thể là ASI cuối cùng. Mặt khác, Nick Bostrom chỉ là rằng một lợi thế cho chúng ta: chúng ta đang tạo ra AI mà nên chúng ta có khả năng để làm nó một cách cẩn trọng, chúng ta có cơ hội thành công cao. Nhưng khả năng cao như thế nào?

18

Nếu ASI thực sự xảy ra trong thế kỷ này, và nếu kết quả thực sự như vậy, theo như phần lớn các chuyên gia, chúng ta có trách nhiệm to lớn trong việc này. Con người của hàng triệu năm nữa đang lặng nhìn chúng ta và hy vọng chúng ta không làm nó xáo trộn lên. Chúng ta có thể là người đem đến món quà cuộc sống không nỗi đau, mãi mãi cho con người trong tương lai. Nhưng cũng có thể chúng ta là người chịu trách nhiệm việc nó biến mất – để loài đặc biệt này với âm nhạc, nghệ thuật, trí tò mò, tiếng cười và khám phá hay sáng chế đi đến cái kết buồn.

Khi tôi nghĩ về điều đó, điều duy nhất là tôi muốn là chúng ta nên dành thời gian nghiên cứu và cẩn trọng với AI. Không thứ gì tồn tại quan trọng bằng AI – cho dù có mất nhiều thời gian đến đâu đi nữa.

Nhưng sau đó

Tôi nghĩ về việc không chết đi

Không. Chết.

Và sơ đồ sẽ trông như thế này:

19

 

Và sau đó tôi có thể nghĩ rằng âm nhạc và nghệ thuật của con người có thể tốt, nhưng không tuyệt đến mức đó, thực tế là cũng có nhiều thể loại âm nhạc và nghệ thuật rất tệ. Rất nhiều người cười to rất phiền và hàng triệu người trong tương lai có thể là chẳng hy vọng điều gì cả vì họ đâu có tồn tại. Và có thể chúng ta không cần cẩn trọng quá mức, vì ai mà thực sự muốn như vậy chứ?

Tuy nhiên, cho dù thế nào thì AI cũng có thể là thứ gì đó mà chúng ta nên nghĩ về nó và nỗ lực hiểu về nó hơn hiện tại.

Điều đó khiến tôi nhớ đến bộ phim Trò chơi Vương Quyền, khi mà mọi người đều như “Chúng tôi quá bận để đánh nhau nhưng điều thực sự chúng ta cần tập trung là đến từ phía bắc.” Chúng ta đang ở vị trí cân bằng, lo lắng về điều xảy ra với vị trí cân bằng này và lo sợ tất cả vấn đề liên quan đến vị trí cân bằng này trong khi chúng ta có thể thoát khỏi vị trí này.

Và nếu chúng ta làm được, chẳng có vấn đề gì còn quan trọng nữa. Phụ thuộc vào vị trí chúng ta chọn, vấn đề cũng được giải quyết dễ dàng và chúng ta sẽ không có vấn đề gì nữa vì người đã chết thì không có vấn đề gì cả.

Đó là tại sao mọi người thường hiểu AI siêu trí tuệ là sáng chế cuối cùng của loài người – thách thức cuối cùng chúng ta phải đối mặt.

Nguồn: Waitbutwhy

Comments
Loading...