This is how you CHANGE the world, and this is how you ENLIGHTEN the world - it's only by HELPING other people.

- Geshe Michael Roach -

CÁCH MẠNG AI: CHÚNG TA SẼ BẤT TỬ HAY TUYỆT CHỦNG (PHẦN 2)

0

Chúng ta có thể sẽ gặp phải một vấn để cực kì khó nhằn mà không biết phải tốn bao nhiêu thời gian mới giải quyết được có thể toàn bộ tương lai nhân loại sẽ phụ thuộc vào nó.

– Nick Bostrom-

Chào mừng đến với Phần 2 của loạt bài “Chờ đã, sao thứ này hay ho vậy mà không ai bàn về nó chứ.”

Ở phần 1, mọi thứ vẫn còn khá trong sáng, chúng ta đã thảo luận về Trí tuệ Nhân tạo Hẹp, còn gọi là ANI (loại AI chuyên về một nhiệm vụ hẹp như chỉ dẫn đường đi cho xe hoặc chơi cờ vua), cũng như chuyện nó đang ở khắp nơi xung quanh chúng ta. Sau đó, chúng ta đã xem xét lý do tại sao việc chuyển từ ANI lên Trí tuệ Nhân tạo Tổng quát, còn gọi là AGI (loại AI mà ít nhất có khả năng trí tuệ ngang bằng con người), lại thách thức đến vậy, và chúng ta cũng đã thảo luận lý do vì sao tốc độ tiến bộ của công nghệ tăng theo cấp số nhân, điều mà từng thấy trong quá khứ, lại gợi ý rằng AGI có thể không còn xa vời như chúng ta vẫn tưởng. Kết thúc phần 1, tôi đã công kích bạn bằng một sự thật rằng: khi máy móc đạt đến trí tuệ mức độ con người, chúng có thể sẽ lập tức làm việc này:

Điều này làm chúng ta phải nhìn chằm chằm vào màn hình, đối mặt với khái niệm nhức nhối về Trí tuệ Nhân tạo Siêu việt, còn gọi là ASI (loại AI thông minh hơn nhiều so với bất kỳ con người nào), và cố gắng tìm ra loại cảm xúc mà chúng ta lẽ ra nên có khi nghĩ về nó.

Trước khi chúng ta đi sâu vào mọi chuyện, hãy cùng nhắc lại định nghĩa về một cỗ máy siêu thông minh.

Cách phân biệt mấu chốt là nhìn vào sự khác nhau giữa trí tuệ siêu việt tốc độ cao và trí tuệ siêu việt chất lượng cao. Thông thường, khi nghĩ về một máy tính siêu thông minh, người ta sẽ tưởng tượng ngay ra một máy tính thông minh bằng con người nhưng có thể suy nghĩ nhanh hơn rất nhiều – họ có thể hình dung ra một cái máy giống như con người, nhưng nhanh hơn một triệu lần, nghĩa là trong năm phút nó có thể nghĩ ra cái mà con người phải tốn một thập kỷ.

Nghe thật ấn tượng, và ASI đúng là sẽ nghĩ nhanh hơn bất kì con người nào – nhưng điều thực sự tách biệt nó ra sẽ là lợi thế trong chất lượng trí thông minh của nó, một thứ hoàn toàn khác. Điều làm cho não người có nhiều khả năng trí tuệ hơn tinh tinh không phải là sự khác biệt về tốc độ suy nghĩ – mà là do bộ não của con người chứa đựng một số bộ phận nhận thức tinh vi, cho phép con người thực hiện những việc như biểu lộ ngôn ngữ phức tạp, lập kế hoạch dài hạn hoặc lý luận trừu tượng, trong khi não của tinh tinh thì không được như vậy. Đẩy nhanh tốc độ trí não của tinh tinh lên hàng nghìn lần sẽ không đưa chúng đến mức như con người – ngay cả với thời gian là một thập kỷ, chúng vẫn sẽ không thể hiểu được cách sử dụng một bộ công cụ tùy chỉnh để lắp ráp một mô hình phức tạp, việc mà con người có thể hoàn thành trong vài giờ. Có hàng sa số các chức năng nhận thức của con người mà một con tinh tinh sẽ không bao giờ lĩnh hội được, cho dù nó có cố gắng cả đời.

Nhưng con tinh tinh không chỉ đơn thuần là không thể làm được những gì chúng ta có thể làm, não của nó thậm chí không thể biết được rằng những việc đó có tồn tại – một con tinh tinh có thể trở nên quen thuộc với con người và các tòa nhà chọc trời, nhưng nó sẽ không bao giờ hiểu rằng tòa nhà chọc trời được xây dựng bởi con người. Trong thế giới của chúng, bất cứ cái gì to lớn là một phần của tự nhiên, thời gian, và không chỉ việc xây dựng một tòa nhà chọc trời là vượt ngoài khả năng của chúng, ngay cả việc nhận ra rằng có người có thể xây dựng một tòa nhà chọc trời cũng vậy. Đó là kết quả của sự khác biệt nhỏ nhỏ trong chất lượng trí thông minh.

Và trong sơ đồ phạm vi trí tuệ mà chúng ta đang nói đến ngày hôm nay, hoặc thậm chí là trong phạm vi nhỏ hơn nhiều giữa các sinh vật sinh học, khoảng cách về chất lượng trí thông minh từ tinh tinh đến con người là rất bé. Trong một bài viết trước, tôi đã miêu tả phạm vi khả năng nhận thức sinh học bằng cách sử dụng hình ảnh chiếc cầu thang:

Để hiểu được độ khủng của một cỗ máy siêu thông minh, hãy tưởng tượng một cỗ máy đứng ở vị trí xanh lá đậm, trên con người hai bậc thang. Cỗ máy này chỉ có một chút siêu thông minh thôi, nhưng ưu thế về khả năng nhận thức của nó so với chúng ta đã khổng lồ như khoảng cách giữa tinh tinh và con người như vừa mô tả vậy. Và giống như con tinh tinh không thể tiếp thu chuyện các tòa nhà chọc trời có thể được xây dựng, chúng ta sẽ không bao giờ có thể hiểu được những việc mà cái máy trên bậc thang xanh lá đậm có thể làm, ngay cả khi cỗ máy cố gắng giải thích nó cho chúng ta – đừng nói đến chuyện tự mình thực hiện. Và đó mới chỉ là hai bậc cao hơn chúng ta. Một cỗ máy tại bậc thang cao thứ nhì trên hình so với chúng ta lúc này cũng giống như chúng ta so với loài kiến ​​– cỗ máy có thể dùng nhiều năm để dạy cho ta biết điều đơn giản nhất trong những điều nó biết nhưng nỗ lực này sẽ là vô vọng.

Nhưng loại siêu thông minh mà chúng ta đang nói đến hôm nay vượt xa mọi thứ trên cầu thang này. Trong vụ bùng nổ trí thông minh – nơi mà khi một cỗ máy trở nên thông minh hơn, tốc độ gia tăng trí thông minh của nó cũng sẽ nhanh hơn, cho đến khi nó bắt đầu bay vút lên – cỗ máy có lẽ sẽ mất nhiều năm để phát triển từ bậc tinh tinh đến bậc kế tiếp, nhưng có thế chỉ mất vài giờ để nhảy lên một bậc nữa khi nó đã ở bậc màu xanh đậm, tức là trên chúng ta hai bậc, và vào thời điểm nó trên chúng ta mười bậc, nó có thể nhảy cóc lên bốn bậc trong mỗi giây. Đó là lý do tại sao chúng ta cần phải nhận thức rằng, ngay sau khi tin tức nóng hổi về cỗ máy đầu tiên đạt AGI mức độ con người xuất hiện, có thể chúng ta sẽ phải đối mặt với thực tế cùng tồn tại trên Trái Đất với thứ gì đó ở cùng bậc cầu thang (hoặc có khi cao hơn một triệu bậc):

Và vì chúng ta vừa kết luận chuyện cố gắng hiểu sức mạnh của cỗ máy chỉ hai bước phía trên chúng ta là vô vọng, hãy khẳng định cụ thể một lần và mãi mãi rằng: không ai biết được ASI sẽ làm gì và chúng ta sẽ phải gánh hậu quả gì. Bất cứ ai giả vờ phủ định việc này đều không hiểu bản chất của trí tuệ siêu việt.

Sự tiến hóa đã cải thiện bộ não sinh học từ từ và dần dần trong hàng trăm triệu năm, và theo quan điểm đó, việc con người sinh ra một cỗ máy ASI cũng đồng nghĩa với việc con người cướp công ăn việc làm của sự tiến hóa. Hoặc biết đâu đây là một phần của sự tiến hóa – có thể cách hoạt động của sự tiến hóa là làm cho trí tuệ càng ngày càng tăng lên cho đến một ngày trí tuệ đạt đến cấp độ mà nó có khả năng tạo ra các cỗ máy siêu thông minh, và cấp độ đó giống như một sợi dây bẫy, kích hoạt một vụ nổ thay đổi toàn bộ thế giới và xác định một tương lai mới cho hết thảy sinh vật:

Và vì những lý do mà lát nữa chúng ta sẽ thảo luận, một phần rất lớn cộng đồng khoa học tin rằng vấn đề không nằm ở chuyện liệu chúng ta có đạp trúng dây bẫy đó hay không, mà là khi nào chúng ta sẽ đạp nó. Thật là một thông tin điên rồ mà.

Vậy chúng ta sẽ ra sao?

Vâng, không ai trên thế giới này, đặc biệt là tôi, có thể cho bạn biết điều gì sẽ xảy ra khi chúng ta đạp vào dây bẫy. Tuy nhiên, nhà triết học Oxford và nhà tư tưởng trí tuệ hàng đầu Nick Bostrom tin rằng chúng ta có thể cô đọng tất cả các kết quả tiềm năng thành hai loại chính.

Thứ nhất, nhìn vào lịch sử, chúng ta có thể thấy rằng sự sống hoạt động như sau: một loài sinh vật xuất hiện, tồn tại trong một khoảng thời gian, rồi sau đó, trăm phần trăm, chúng rời khỏi vùng tồn tại cân bằng và đáp cánh tại vùng tuyệt chủng –

“Mọi chủng loài cuối cùng đều tuyệt chủng” gần như là một quy luật đáng tin cậy xuyên suốt lịch sử, cũng như quy luật “Mọi con người cuối cùng đều chết.” Cho đến nay, 99,9% các loài đã rơi khỏi vùng tồn tại, và dường như khá rõ ràng rằng, nếu một loài cứ tiếp tục thoi thóp ở lại vùng tồn tại, thì sớm muộn gì một loài khác, một cơn gió tự nhiên dữ dội, hoặc một thiên thạch sẽ bất ngờ đá nó ra khỏi đó. Bostrom gọi sự tuyệt chủng là một tiểu bang hấp dẫn – nơi mà tất cả các chủng loài loạng choạng rơi vào và không bao giờ quay trở ra.

Và trong khi hầu hết các nhà khoa học mà tôi đã gặp đều thừa nhận rằng ASI có khả năng sẽ gửi con người đến vùng tuyệt chủng, nhiều người cũng tin rằng, nếu được sử dụng một cách có lợi, khả năng của ASI có thể đưa từng con người cũng như toàn bộ loài người đến một tiểu bang hấp dẫn thứ hai – sự bất tử. Bostrom tin rằng sự bất tử cũng là một tiểu bang hấp dẫn không thua gì sự tuyệt chủng, tức là nếu chúng ta có thể tới đó, chúng ta sẽ không bao giờ phải đi tới sự tuyệt chủng nữa – chúng ta sẽ đánh bại cái chết và nắm bắt cơ hội. Vì vậy, mặc dù tất cả các loài cho đến nay đều đã rơi khỏi vùng tồn tại và đổ bộ đến vùng tuyệt chủng, Bostrom tin rằng vẫn còn một vùng nữa nằm bên kia vùng tồn tại, chỉ là chưa có gì trên Trái Đất đủ thông minh để tìm ra cách đổ bộ tới đó.

Nếu Bostrom và những người khác nói đúng, và từ mọi thứ tôi đã đọc, có vẻ như họ rất có thể đúng, chúng ta có hai sự thật khá gây sốc phải tiếp thu:

1) Sự ra đời của ASI sẽ, lần đầu tiên, mở ra khả năng cho một loài tiến tới vùng bất tử.

2) Sự xuất hiện của ASI sẽ gây ra một tác động đáng kinh ngạc đến nỗi nó có thể làm cho con người rời khỏi vùng tồn tại, theo hướng này hoặc hướng khác.

Rất có thể khi sự tiến hóa đạp dây bẫy, mối quan hệ của con người với vùng tồn tại sẽ kết thúc vĩnh viễn và một thế giới mới, có hoặc không có con người, sẽ được tạo ra.

Dường như câu hỏi duy nhất mà mọi người nên hỏi khi này là: Khi nào chúng ta sẽ đụng phải dây bẫy và chúng ta sẽ hạ cánh ở bên nào của vùng tồn tại khi điều đó xảy ra? Không ai trên thế giới biết câu trả lời dù chỉ là cho một phần trong hai phần của câu hỏi này, nhưng rất nhiều những người thông minh nhất đã dùng hàng thập kỷ để suy nghĩ về nó. Chúng ta sẽ dành phần còn lại của bài đăng này để khám phá những gì mà họ đã nghĩ ra.

___________

Hãy bắt đầu với phần đầu tiên của câu hỏi: Khi nào chúng ta sẽ đụng vào dây bẫy này?

Tức là còn bao lâu nữa thì chúng ta sẽ có chiếc máy tính đầu tiên đạt đến trí tuệ siêu việt?

Không có gì bất ngờ, có rất nhiều các ý kiến khác nhau và đây là một cuộc tranh luận nảy lửa giữa các nhà khoa học và tư tưởng. Rất nhiều người, như giáo sư Vernor Vinge, nhà khoa học Ben Goertzel, nhà đồng sáng lập Sun Microsystems Bill Joy, hoặc nổi tiếng nhất là nhà phát minh và theo thuyết tương lai Ray Kurzweil, đồng ý với chuyên gia máy học Jeremy Howard khi ông vẽ biểu đồ này trong một cuộc nói chuyện trên TED:

Những người đó tin rằng chuyện này sẽ xảy ra sớm – rằng sự tăng trưởng theo cấp số nhân đang diễn ra và công nghệ máy học, mặc dù bây giờ chỉ đang từ từ đuổi theo chúng ta, sẽ vượt qua chúng ta chỉ trong vài thập kỷ tới.

Những người khác, như nhà đồng sáng lập của Microsoft Paul Allen, nhà tâm lý học Gary Marcus, nhà khoa học máy tính NYU Ernest Davis, và nhà kinh doanh công nghệ Mitch Kapor, tin rằng các nhà tư tưởng như Kurzweil đang đánh giá thấp mức độ của thách thức và tin rằng chúng ta không thực gần dây bẫy đến vậy.

Phe của Kurzweil phản bác rằng chuyện đánh giá thấp duy nhất đang xảy ra là đánh giá thấp sự tăng trưởng theo cấp số nhân, và họ ví những người nghi ngờ với những kẻ nhìn vào tốc độ phát triển chậm của mạng Internet vào năm 1985 rồi lập luận rằng Internet sẽ không thể có tác động đáng kể trong tương lai gần.

Những người nghi ngờ lại lập luận rằng, tiến triên cần thiết để đạt tiến bộ trong lĩnh vực trí tuệ cũng sẽ trở nên khó khăn hơn theo cấp số nhân sau mỗi bước tiến, điều này sẽ triệt tiêu bản chất tăng trưởng theo cấp số nhân của tiến bộ trong công nghệ. Và còn nhiều nữa.

Một phe thứ ba, trong đó có Nick Bostrom, tin rằng cả hai nhóm kia đều không có cơ sở để chắc chắn về dòng thời gian và thừa nhận rằng A) chuyện này hoàn toàn có thể xảy ra trong tương lai gần và B) không có gì đảm bảo về điều đó; nó cũng có thể sẽ mất thời gian hơn nhiều.

Cũng có những người khác, như nhà triết học Hubert Dreyfus, tin rằng cả ba nhóm này đều ngây thơ vì tin rằng có cái thứ gọi là dây bẫy, họ lập luận rằng nhiều khả năng con người sẽ không bao giờ đạt được ASI.

Vậy bạn nhận được điều gì khi gộp tất cả những ý kiến này lại với nhau?

Năm 2013, Vincent C. Müller và Nick Bostrom đã tiến hành một cuộc khảo sát nhằm hỏi hàng trăm chuyên gia về AI tại các hội nghị câu hỏi sau: “Vì mục đích của câu hỏi này, giả sử rằng hoạt động khoa học của con người vẫn tiếp tục mà không bị gián đoạn tiêu cực đáng kể. Vào năm nào bạn thấy AGI có xác suất tồn tại là 10% / 50% / 90%?” Cuộc khảo sát yêu cầu họ nêu ra một năm lạc quan (năm mà họ tin rằng chúng ta có 10% cơ hội đạt được AGI), một dự đoán thực tế (một năm họ tin rằng có 50% cơ hội đạt AGI – nghĩa là sau năm đó họ nghĩ rằng nhiều khả năng chúng ta sẽ đạt được AGI) và một dự đoán an toàn (năm sớm nhất mà họ có thể nói với 90% chắc chắn rằng chúng ta sẽ đạt được AGI). Tập hợp lại thành một tập dữ liệu, đây là kết quả:

Năm lạc quan trung bình (10% chắc chắn): 2022

Năm thực tế trung bình (50% chắc chắn): 2040

Năm bi quan trung bình (90% chắc chắn): 2075

Vậy là người tham gia trung bình nghĩ rằng nhiều khả năng chúng ta sẽ sở hữu AGI trong 25 năm nữa. Câu trả lời năm bi quan trung bình là 2075 nói lên rằng nếu bạn là một thiếu niên lúc này, thì người thham gia trung bình cùng với hơn một nửa nhóm chuyên gia về AI gần như chắc chắn rằng AGI sẽ xuất hiện khi bạn còn sống.

Một nghiên cứu riêng biệt khác, được tiến hành gần đây bởi tác giả James Barrat tại Hội nghị AGI hàng năm của Ben Goertzel, đã bỏ qua chuyện phần trăm và đơn giản hỏi những người tham gia rằng họ nghĩ AGI sẽ đạt được – vào năm 2030, 2050, 2100, sau năm 2100 hay không bao giờ. Kết quả là:

Vào năm 2030: 42% số người được hỏi

Vào năm 2050: 25%

Vào năm 2100: 20%

Sau năm 2100: 10%

Không bao giờ: 2%

Tương tự như kết quả của Müller và Bostrom. Theo khảo sát của Barrat, hơn 2/3 số người tham gia tin rằng AGI sẽ xuất hiện vào năm 2050 và ít hơn một nửa dự đoán rằng AGI sẽ xuất hiện trong vòng 15 năm tới. Cũng nổi bật là có 2% những người được khảo sát không nghĩ rằng AGI là một phần tương lai của chúng ta.

Nhưng AGI không phải là dây bẫy, mà là ASI. Vậy các chuyên gia nghĩ khi nào chúng ta sẽ đạt đến ASI?

Müller và Bostrom cũng yêu cầu các chuyên gia cho ý kiến về khả năng chúng ta đạt tới ASI A) trong vòng hai năm sau khi đạt AGI (tức là vụ nổ trí thông minh gần như ngay tức thì), và B) trong vòng 30 năm. Kết quả:

Câu trả lời trung bình đưa ra là: chỉ có 10% khả năng AGI sẽ thành ASI trong 2 năm, nhưng có tận 75% khả năng sự chuyển đổi này kéo dài 30 năm.

Từ dữ liệu này chúng ta không thể biết người tham gia trung bình nghĩ gì về thời điểm sự chuyển tiếp xảy ra với 50% khả năng, nhưng với mục đích tính xấp xỉ, dựa vào hai câu trả lời trên, hãy ước tính rằng họ sẽ nói là trong 20 năm. Vậy là ý kiến trung bình – ý kiến trung tâm của cộng đồng chuyên gia về AI – tin rằng dự đoán thực tế nhất về thời điểm chúng ta chạm đến dây bẫy ASI là [dự đoán năm 2040 cho AGI + dự đoán ước tính của chúng ta về quá trình chuyển đổi 20 năm từ AGI đến ASI] = 2060.

Tất nhiên, tất cả các số liệu thống kê ở trên là mang tính phỏng đoán, và chúng chỉ đại diện cho ý kiến trung tâm của cộng đồng chuyên gia về AI, nhưng chúng cho chúng ta biết rằng phần lớn những người biết rõ nhất về chủ đề này sẽ đồng ý: năm 2060 là một ước tính rất hợp lý cho sự xuất hiện của ASI có khả năng thay đổi thế giới. Chỉ 45 năm kể từ bây giờ.

Bây giờ làm thế nào về phần thứ hai của câu hỏi trên: Khi đụng vào dây bẫy, chúng ta sẽ hạ cánh ở phía bên nào của vùng tồn tại?

Trí tuệ siêu việt sẽ mang lại quyền năng khổng lồ – câu hỏi quan trọng đối với chúng ta là:

Ai hoặc cái gì sẽ kiểm soát quyền năng đó, và động cơ của họ là gì?

Câu trả lời cho câu hỏi này sẽ xác định ASI là một sự phát triển tuyệt vời đáng kinh ngạc, một sự phát triển khủng khiếp không thể tin nổi, hay cái gì đó ở giữa.

Tất nhiên, cộng đồng các chuyên gia lại chia rẽ và tranh luận sôi nổi về câu trả lời cho câu hỏi này. Khảo sát của Müller và Bostrom yêu cầu người tham gia cho ý kiến về xác suất của những tác động có thể có của AGI lên nhân loại và nhận thấy câu trả lời trung bình là có 52% khả năng kết quả sẽ tốt hoặc cực kỳ tốt và 31% khả năng kết quả sẽ xấu hoặc cực kỳ xấu. Đối với một kết quả tương đối trung tính, xác suất trung bình chỉ là 17%. Nói cách khác, những người biết nhiều nhất về lĩnh vực này khá chắc chắn đây sẽ là một vấn để to lớn. Cũng cần lưu ý rằng những con số trên chỉ đề cập đến sự xuất hiện của AGI – nếu câu hỏi là về ASI, tôi nghĩ rằng tỷ lệ kết quả trung tính thậm chí còn thấp hơn.

Trước khi đi sâu vào phần kết quả tốt và xấu này, chúng ta hãy kết hợp cả 2 phần “nó sẽ xảy ra khi nào?” Và “nó là tốt hay xấu?” của câu hỏi này vào một biểu đồ bao gồm các quan điểm của các chuyên gia trong lĩnh vực:

Lát nữa chúng ta sẽ nói thêm về phe chính, nhưng trước tiên – vấn đề của bạn là gì? Trên thực tế, tôi biết vấn đề của bạn là gì, bởi vì nó cũng là vấn đề của tôi trước khi bắt đầu nghiên cứu chủ đề này. Một số lý do khiến hầu hết mọi người không thực sự nghĩ về chủ đề này:

  • Như đã đề cập ở phần 1, phim ảnh thực sự làm loạn mọi thứ bằng cách trình bày các kịch bản không thực tế khiến chúng ta cảm thấy AI không phải là việc nghiêm túc. James Barrat ví tình trạng này với phản ứng của chúng ta nếu các Trung tâm Kiểm soát Bệnh dịch đưa ra cảnh báo nghiêm trọng về ma cà rồng trong tương lai.
  • Do cái gọi là thành kiến, chúng ta khó mà tin rằng điều gì đó là có thật cho đến khi nhìn thấy bằng chứng. Tôi chắc rằng các nhà khoa học máy tính năm 1988 cũng thường xuyên nói về tầm vóc to lớn mà Internet có thể đạt được, nhưng mọi người thực sự không nghĩ rằng nó sẽ thay đổi cuộc sống của họ cho đến khi nó thực sự làm được điều đó. Điều này một phần là do các máy tính không thể làm được việc như bây giờ ở năm 1988, vì vậy mọi người sẽ nhìn vào máy tính của họ và nghĩ rằng, “Thật sao? Nó sẽ thay đổi cuộc sống sao? “Trí tưởng tượng của họ bị giới hạn bởi những gì trải nghiệm cá nhân của họ đã dạy họ về một chiếc máy tính, điều này làm họ khó có thể hình dung rõ những gì máy tính có thể trở thành. Điều tương tự đang xảy ra với AI. Chúng ta nghe nói rằng nó sẽ trở nên to lớn, nhưng vì nó chưa xảy ra, và vì kinh nghiệm của chúng ta với AI tương đối bé nhỏ trong thế giới hiện tại, chúng ta khó có thể thực sự tin rằng điều này sẽ thay đổi cuộc sống chúng ta một cách đáng kể. Và những thành kiến ​​đó là những gì các chuyên gia đang chống lại, họ cố gắng hết sức để thu hút sự chú ý của chúng ta thông qua việc làm chúng ta bận tâm hằng ngày.
  • Ngay cả khi chúng ta tin họ – bạn đã bao nhiêu lần nghĩ về việc sẽ dành phần lớn thời gian còn lại của sự vĩnh hằng để không tồn tại? Không nhiều, phải không? Mặc dù đó là một sự thật quan trọng hơn nhiều so với bất cứ điều gì bạn đang làm ngày hôm nay? Điều này là bởi vì bộ não của chúng ta thường tập trung vào những điều nhỏ nhặt trong cuộc sống hằng ngày, bất kể chúng ta có đang trong một tình trạng dài hạn điên cuồng như thế nào. Đó chính là cách chúng ta lo lắng.

Một trong các mục tiêu của hai bài viết này là làm cho bạn thoát khỏi phe Tui Thích Nghĩ Đến Những Việc Khác Hơn và gia nhập một trong những phe của các chuyên gia, ngay cả khi bạn đang đứng trên giao điểm của hai đường chấm trong ô vuông phía trên, hoàn toàn không chắc chắn gì.

Trong quá trình nghiên cứu của mình, tôi đã gặp rất nhiều ý kiến khác nhau về chủ đề này, nhưng tôi nhanh chóng nhận thấy ý kiến của hầu hết mọi người đều rơi vào cái mà tôi gọi là Phe Chính và cụ thể, hơn ba phần tư các chuyên gia đều rơi vào hai Phe Phụ trong Phe Chính:

Chúng ta sẽ đi sâu vào cả hai phe này. Hãy bắt đầu với phe vui hơn –

Tại sao Tương lai lại có thể là Giấc mơ Lớn Nhất của Chúng ta

Khi tìm hiểu về thế giới AI, tôi thấy một số lượng lớn người đứng ở đây:

Những người ở Góc Tự tin đang ồn ào với sự phấn khích. Họ để mắt đến phía bên vui vẻ của vùng tồn tại cân bằng và họ tin rằng đó là nơi mà tất cả chúng ta sẽ hạ cánh đến. Đối với họ, tương lai là tất cả những gì họ từng mong đợi, vừa kịp lúc.

Điều tách biệt những người này khỏi các nhà tư tưởng khác mà chúng ta sẽ thảo luận sau, không phải là sự ham muốn của họ đối với phía bên hạnh phúc của vùng tồn tại – mà là niềm tin của họ đối với việc đó là phía chúng ta sẽ hạ cánh.

Sự tự tin này xuất phát từ đâu vẫn là một vấn đề đáng tranh luận. Các nhà phê bình tin rằng nó xuất phát từ một sự phấn khích tột độ đến nỗi làm họ mờ mắt, bỏ qua hoặc phủ nhận các kết quả tiêu cực tiềm ẩn. Nhưng những kẻ tự tin này lại nói rằng thật ngây thơ khi gợi lên các viễn cảnh ngày tận thế khi mà xét đến mọi khía cạnh, công nghệ đã và dường như chắc chắn sẽ tiếp tục giúp đỡ chúng ta nhiều hơn là tổn thương chúng ta.

Chúng ta sẽ xem xét tất cả các mặt trong bài đăng, và bạn có thể hình thành quan điểm riêng về vấn đề này khi đọc, nhưng trong phần này, hãy bỏ sự hoài nghi qua một bên và cùng nhau nhìn vào những gì có ở bên vui vẻ của vùng tồn tại cân bằng – và hãy cố gắng tiếp thu thực tế là những điều bạn đang đọc có thể thực sự xảy ra. Nếu bạn cho một người thuộc thời săn bắt-hái lượm xem sự tiện nghi trong nhà, công nghệ và sự phong phú vô tận, nó sẽ có vẻ là phép thuật hư cấu đối với anh ta – vậy nên chúng ta phải khiêm tốn để thừa nhận rằng có thể có một sự chuyển đổi không thể tưởng tượng được giống như vậy sẽ xảy ra trong tương lai.

Nick Bostrom mô tả ba cách mà một hệ thống AI siêu thông minh có thể hoạt động:

  • Như một vị Tiên tri, có thể trả lời gần như mọi câu được hỏi một cách chính xác, bao gồm các câu hỏi phức tạp mà con người không thể dễ dàng trả lời. Ví dụ : Làm sao tôi có thể sản xuất một động cơ xe hơi hiệu quả hơn? Google là một loại tiên tri tiên phong.
  • Như một vị Thần, có thể thực hiện bất kỳ mệnh lệnh cao nào được giao – Sử dụng một máy lắp ráp phân tử để chế tạo một loại động cơ xe mới và hiệu quả hơn – và sau đó chờ mệnh lệnh tiếp theo.
  • Như một vị Chúa tể, đươc giao nhiệm vụ rộng và mở, được phép hoạt động trên thế giới một cách tự do, tự quyết định cách tiến hành tốt nhất – Phát minh ra cách di chuyển cá nhân nhanh hơn, rẻ hơn và an toàn hơn xe ô tô.

Những câu hỏi và nhiệm vụ này tuy có vẻ phức tạp đối với chúng ta, nhưng đối với một hệ thống siêu thông minh thì chẳng khác nào chuyện ai đó yêu cầu bạn cải thiện tình hình “Bút chì của tớ rơi khỏi bàn rồi” vậy, đơn giản là nhặt nó lên và đặt nó trên bàn.

Eliezer Yudkowsky, một cư dân của Đại lộ Lo lắng trong biểu đồ của chúng ta ở trên, nói rằng:

Không có vấn đề khó khăn, chỉ có vấn đề khó khăn đối với một mức độ thông minh nhất định. Di chuyển dù chỉ một đoạn nhỏ nhất lên phía trên [thang đo mức độ thông minh], và một số vấn đề sẽ đột nhiên di chuyển từ “không thể” sang “rõ ràng.” Di chuyển một mức độ đáng kể lên trên, và tất cả sẽ trở nên rõ ràng.

Có rất nhiều nhà khoa học, nhà phát minh và doanh nhân hăng hái đang đứng tại Góc Tự tin – nhưng nếu muốn một tour du lịch tại nơi sáng nhất của vùng trời AI này, thì chúng ta chỉ nên chọn một người duy nhất làm hướng dẫn viên.

Ray Kurzweil đang làm phân cực mọi thứ. Trong quá trình tìm hiểu, tôi đã nghe mọi thứ từ sự thờ phượng thần thánh cho tới sự khinh thường đối với anh ta và những ý tưởng của anh ta. Một số khác thì ở đâu đó ở giữa, tác giả Douglas Hofstadter, khi thảo luận về những ý tưởng trong cuốn sách của Kurzweil, đã nói “nó giống như bạn lấy rất nhiều thức ăn ngon và một ít phân chó trộn lẫn lại với nhau, để bạn không thể biết được cái gì tốt cái gì xấu. “

Cho dù bạn thích ý tưởng của anh ta hay không, mọi người đều đồng ý rằng Kurzweil rất ấn tượng. Ông đã bắt đầu phát minh ra đủ thứ từ khi còn là một thiếu niên và trong những thập kỷ tiếp sau đó, ông đã có một số sáng chế đột phá, bao gồm máy quét hình phẳng đầu tiên, máy quét đầu tiên chuyển văn bản thành lời nói (cho phép người khiếm thị đọc văn bản tiêu chuẩn), bộ tổng hợp âm nhạc Kurzweil nổi tiếng (chiếc piano điện tử thực sự đầu tiên), và bộ nhận dạng giọng nói phức tạp được thương mại hóa đầu tiên. Ông là tác giả của năm cuốn sách bán chạy nhất trong nước. Ông cũng nổi tiếng vì những dự đoán táo bạo và có danh tiếng khá tốt trong việc đưa chúng thành sự thật – bao gồm dự đoán của ông vào cuối những năm 80, khi Internet là một thứ không rõ ràng, rằng vào đầu những năm 2000, nó sẽ trở thành một hiện tượng toàn cầu. Kurzweil đã được gọi là “thiên tài không nghỉ ngơi” bởi tờ The Wall Street Journal, “máy suy nghĩ tối thượng” bởi tạp chí Forbes, “người thừa kế hợp pháp của Edison” bởi tạp chí Inc., và là “người giỏi nhất về dự đoán tương lai của trí tuệ nhân tạo mà tôi biết” bởi Bill Gates. Trong năm 2012, nhà đồng sáng lập Google – Larry Page đã tiếp cận Kurzweil và đề nghị ông trở thành Giám đốc Kỹ thuật của Google. Trong năm 2011, ông đã đồng sáng lập Đại học Singularity, được tổ chức bởi NASA và được Google tài trợ một phần. Một cuộc đời rất không tệ.

Tiểu sử này rất quan trọng. Khi Kurzweil đưa ra viễn cảnh về tương lai, ông hoàn toàn giống như một kẻ quái dị, và điều điên rồ là ông ta không phải thế – ông ta là một người cực kỳ thông minh, có hiểu biết và đáng tin trên thế giới. Bạn có thể nghĩ ông ta đã sai về tương lai, nhưng ông ta không phải một kẻ ngốc. Biết ông ta là một người đáng tin làm tôi hạnh phúc, bởi vì tôi đã đọc những dự đoán của ông ta về tương lai, và tôi muốn ông ta đúnggần chết. Và bạn cũng sẽ như thế. Một khi bạn nghe các dự đoán của Kurzweil, mà nhiều cái trong số đó đã được những người khác ở Góc Tự tin như Peter Diamandis và Ben Goertzel chia sẻ, thì thật không khó để bạn có thể thấy tại sao ông ta lại có một đoàn tín đồ lớn và nhiệt huyết như vậy (đoàn tín đồ này được gọi là những kẻ kì dị). Đây là những gì ông ta nghĩ sẽ xảy ra:

Dòng thời gian

Kurzweil tin rằng máy tính sẽ đạt đến AGI vào năm 2029 và đến năm 2045, chúng ta sẽ không chỉ có ASI, mà còn có một thế giới hoàn toàn mới – một thời điểm mà ông gọi là kỳ dị. Dòng thời gian liên quan đến AI của ông từng được coi là quá mức sốt sắng, và bây giờ vẫn còn nhiều người thấy vậy, nhưng trong 15 năm qua, những tiến bộ nhanh chóng của các hệ thống ANI đã đưa thế giới rộng lớn của các chuyên gia về AI đến gần hơn với dòng thời gian của Kurzweil. Những dự đoán của ông ta vẫn còn mang nhiều tham vọng hơn so với câu trả lời trung bình trong cuộc khảo sát của Müller và Bostrom (AGI đến năm 2040, ASI vào năm 2060), nhưng không phải là quá nhiều.

Mô tả của Kurzweil về điểm kì dị năm 2045 được củng cố bởi ba cuộc cách mạng đồng thời trong công nghệ sinh học, công nghệ nano, và, mạnh mẽ nhất, công nghệ AI.

Trước khi chuyển sang vấn đề kế tiếp – công nghệ nano xuất hiện trong hầu hết mọi thứ mà bạn đọc về tương lai của AI, vì vậy hãy nhìn vào hộp xanh để bàn về nó một chút –

Hộp Xanh bàn về Công Nghệ Nano

Công nghệ nano là từ chúng ta dùng để nói về loại công nghệ liên quan đến việc thao tác trên các vật chất có kích thước từ 1 đến 100 nanomet. Một nanomét là một phần tỉ của một mét, hoặc một phần triệu milimet, và phạm vi 1-100 này bao gồm các virut (100 nm bề ngang), DNA (10 nm bề rộng), và những thứ nhỏ bằng các phân tử lớn như hemoglobin (5 nm) và các phân tử trung bình như glucose (1 nm). Nếu/Khi chúng ta chinh phục công nghệ nano, bước tiếp theo sẽ là khả năng thao tác trên các nguyên tử riêng lẻ, chỉ nhỏ hơn một phần mười (~ .1 nm).

Để hiểu được thách thức của con người khi cố gắng thao tác trên vật chất có kích thước trong phạm vi này, hãy cùng làm việc đó với quy mô lớn hơn. Trạm Không gian Quốc tế cách Trái Đất 268 dặm (431 km). Nếu con người là những kẻ khổng lồ to lớn đến nỗi đầu của họ chạm tới ISS, họ sẽ lớn gấp 250.000 lần so với hiện nay. Nếu bạn làm phạm vi công nghệ nano 1nm – 100nm lớn lên 250.000 lần, bạn sẽ có được .25mm – 2.5cm. Vậy công nghệ nano tương đương với một con người khổng lồ cao như ISS tìm cách cẩn thận chế tạo các vật thể tinh vi bằng vật liệu có kích thước nằm giữa độ lớn của một hạt cát và nhãn cầu. Để đạt được mức độ tiếp theo – thao tác trên các nguyên tử đơn lẻ, người khổng lồ này sẽ phải định vị cẩn thận các vật thể có kích thước bằng 1/40 milimét – nhỏ tới mức những con người kích cỡ bình thường sẽ cần kính hiển vi để nhìn thấy chúng.

Công nghệ nano lần đầu tiên được Richard Feynman thảo luận trong một cuộc nói chuyện năm 1959, khi ông giải thích: “Các nguyên lý của vật lý học, như tôi hiểu, không bác bỏ khả năng thao tác trên mọi thứ ở cấp độ nguyên tử. Trên nguyên tắc, một nhà vật lí học… có thể tổng hợp ra bất cứ hóa chất nào mà nhà hóa học yêu cầu… Làm sao ư? Chỉ cần đặt các nguyên tử xuống nơi mà nhà hóa học nói, và vậy là tạo ra một hóa chất.” Nó đơn giản như vậy đấy. Nếu có thể tìm ra cách di chuyển các phân tử hoặc nguyên tử riêng lẻ, bạn có thể tạo ra, theo nghĩa đen, bất cứ thứ gì.

Công nghệ nano đã lần đầu tiên trở thành một lĩnh vực nghiêm túc vào năm 1986, khi kỹ sư Eric Drexler cung cấp nền tảng cho nó trong cuốn sách Engines of Creation, nhưng Drexler đề nghị nếu muốn tìm hiểu về các ý tưởng hiện đại nhất trong công nghệ nano thì nên đọc cuốn sách năm 2013 của ông, Radical Abundance.

Hộp Xanh Đậm bàn về Chất lỏng Màu xám

Chúng ta hiện đang ở trong phân vùng của một phân vùng. Thật thú vị.

Cơ mà, tôi đưa bạn đến đây là vì tôi cần nói cho bạn nghe về một phần thực tế rất không vui vẻ trong công nghệ nano. Trong các phiên bản trước đây của lý thuyết công nghệ nano, có một phương pháp được đề xuất liên quan đến việc tạo ra hàng nghìn tỷ nanobot (tức robot có kích thước tính bằng nano) rồi kết hợp chúng lại với nhau để chúng cùng xây dựng một cái gì đó. Một cách để có hàng nghìn tỷ nanobot là tạo ra một con có thể tự nhân bản và sau đó để cho quá trình nhân bản biến nó thành hai con, hai con này sau đó biến thành bốn, bốn thành tám, và trong một ngày, sẽ có vài nghìn tỷ con sẵn sàng làm nhiệm vụ. Đó là sức mạnh của sự tăng trưởng theo cấp số nhân. Thật thông minh, phải không?

Ừ, thật thông minh cho đến khi nó vô tình gây ra ngày tận thế. Vấn đề của chuyện này là, chính sức mạnh của sự tăng trưởng theo cấp số nhân, thứ khiến việc tạo ra hàng nghìn tỷ nanobot trở nên vô cùng thuận tiện, cũng là thứ làm cho phép tự nhân bản trở nên cực kỳ đáng sợ. Bởi vì nếu lỡ như hệ thống bị lỗi, thay vì dừng quá trình tự nhân bản khi đạt đến số lượng vài nghìn tỷ như mong đợi, chúng cứ tiếp tục tự nhân bản thì sao? Các nanobot sẽ được thiết kế để tiêu thụ bất kỳ vật liệu có chứa carbon nào, để nuôi quá trình tự nhân bản, và thật khó chịu làm sao khi mà tất cả mọi dạng sống đều có chứa carbon. Sinh khối của Trái Đất chứa khoảng 1045 nguyên tử cacbon. Một nanobot sẽ bao gồm khoảng 106 nguyên tử cacbon, do đó 1039 nanobot sẽ tiêu thụ hết sự sống trên Trái Đất, tức là điều này sẽ xảy ra trong 130 lần nhân bản (2130 xấp xỉ bằng 1039), khi mà các đại dương nanobot (chính là chất lỏng màu xám) cuộn quanh hành tinh. Các nhà khoa học nghĩ rằng một nanobot có thể tự nhân bản trong khoảng 100 giây, nghĩa là sai lầm đơn giản này sẽ làm cho cuộc sống trên Trái Đất kết thúc trong 3,5 giờ.

Một kịch bản còn tồi tệ hơn là – nếu một kẻ khủng bố chạm được tay vào công nghệ nanobot và biết cách lập trình cho chúng, hắn có thể tạo ra vài nghìn tỷ con tiên phong và lập trình cho chúng tự lan rộng khắp thế giới trong vài tuần mà không bị phát hiện. Sau đó, tất cả chúng sẽ đồng thời tấn công, và chỉ mất 90 phút để chúng tiêu thụ tất cả mọi thứ – và vì tất cả chúng đều đã được phát tán ra, sẽ không có cách nào để ngăn chúng lại.

Mặc dù câu chuyện kinh dị này đã được thảo luận rộng rãi trong nhiều năm, nhưng tin tốt là rất có thể nó chỉ bị thổi phồng. Eric Drexler, người đặt ra thuật ngữ “gray goo” (“chất lỏng màu xám”), đã gửi cho tôi một email sau bài đăng này, bộc lộ suy nghĩ của ông về kịch bản chất lỏng màu xám: “Mọi người yêu thích các câu chuyện đáng sợ, và câu chuyện này thuộc về lũ zombie. Bản thân cái ý tưởng của nó đã đủ ăn não người ta.”

Một khi thực sự có được công nghệ nano, chúng ta có thể sử dụng nó để tạo ra các thiết bị công nghệ cao, quần áo, thực phẩm, hàng loạt các sản phẩm liên quan đến sinh học như các tế bào máu nhân tạo, chất diệt vi rút và các tế bào ung thư, các mô cơ… – chính xác là bất cứ thứ gì. Và trong một thế giới sử dụng công nghệ nano, chi phí của một vật liệu sẽ không còn gắn liền với sự khan hiếm hay độ khó trong quá trình sản xuất của nó nữa, mà thay vào đó là được xác định dựa trên mức độ phức tạp trong cấu trúc nguyên tử. Trong một thế giới sử dụng công nghệ nano, một viên kim cương có thể còn rẻ hơn một cục gôm.

Hiện tại chúng ta vẫn chưa đến thế giới đó. Và chúng ta cũng không rõ là mình đang đánh giá quá thấp hay đánh giá quá cao độ khó của việc đạt đến thế giới đó. Nhưng dường như chúng ta không còn xa nó lắm. Kurzweil dự đoán rằng chúng ta sẽ đến thế giới đó vào thập niên 2020. Các chính phủ biết rằng công nghệ nano có thể là một bước phát triển làm rung chuyển Trái Đất, và họ đã đầu tư hàng tỷ đô la cho việc nghiên cứu công nghệ này (Mỹ, Châu Âu và Nhật Bản đã đầu tư tổng cộng hơn 5 tỉ đô la cho đến thời điểm này).

Chỉ cần xem xét đến khả năng một máy tính siêu thông minh có quyền truy cập vào một máy lắp ráp nano tốt cũng đủ để khiến chúng ta đau đầu. Nhưng công nghệ nano là một thứ chúng ta nghĩ ra, là thứ mà chúng ta đang trên con đường chinh phục, và vì mọi thứ chúng ta có thể làm chỉ là trò đùa đối với hệ thống ASI, chúng ta phải coi như ASI sẽ nghĩ ra các công nghệ mạnh hơn và tiên tiến hơn mà bộ não con người không thể hiểu . Vì lý do đó, khi xem xét những chuyện có thể xảy ra trong kịch bản “Nếu cuộc Cách mạng Trí tuệ Nhân tạo phát triển theo chiều hướng tốt,” chúng ta hầu như không thể có cái gì gọi là đánh giá quá cao – vậy nếu những dự đoán sau đây về tương lai ASI nghe hơi phóng đại, thì hãy nhớ rằng chúng có thể được thực hiện theo những cách mà con người không thể tưởng tượng được. Rất có thể là bộ não con người thậm chí còn không có khả năng tiên đoán những điều sẽ xảy ra.

AI Có thể Làm Gì Cho Chúng ta

Với trí thông minh siêu việt và tất cả các công nghệ mà trí thông minh siêu việt có thể tạo ra, ASI sẽ có khả năng giải quyết mọi vấn đề của nhân loại. Sự ấm lên toàn cầu ư? ASI có thể làm ngưng quá trình thải CO2 bằng cách phát minh ra nguồn năng lượng không liên quan đến nhiên liệu hóa thạch. Sau đó, nó có thể sáng chế ra những phương pháp loại bỏ lượng CO2 dư thừa khỏi bầu khí quyển. Ung thư và các căn bệnh khác thì sao? Không thành vấn đề với ASI – y học và dược học sẽ được cách mạng hóa ngoài sức tưởng tượng. Nạn đói trên thế giới thì sao? ASI có thể sử dụng những thứ như công nghệ nano để chế tạo ra loại thịt có cấu trúc phân tử giốngy hệt với thịt trong thực tế – nói cách khác, nó sẽ  thịt thật. Công nghệ nano có thể biến một đống rác thành một thùng thịt tươi khổng lồ hay bất kì loại thức ăn nào khác (và chúng không nhất thiết phải mang hình dạng như bình thường – hãy hình dung một quả táo khổng lồ hình lập phương) – và phân phối tất cả đống thức ăn này đến khắp nơi trên thế giới bằng phương tiện vận chuyển siêu tân tiến. Tất nhiên, chuyện này cũng sẽ rất tốt cho các loài động vật, chúng sẽ không còn bị con người giết chết nhiều nữa, và ASI có thể làm nhiều thứ khác để cứu những loài sắp tuyệt chủng, cũng như hồi sinh các loài đã tuyệt chủng bằng cách thao tác trên số ADN được bảo quản. ASI hơn nữa còn có thể giải quyết các vấn đề vĩ mô phức tạp nhất của con người – như những cuộc tranh luận của chúng ta về cách hoạt động nền kinh tế và cách tạo điều kiện thuận lợi nhất cho thương mại thế giới, hay thậm chí là những vấn đề mơ hồ nhất trong triết học và đạo đức – tất cả sẽ thật rõ ràng đối với ASI.

Nhưng có một điều rất trêu ngươi mà ASI có thể làm cho chúng ta, và đọc về nó đã làm thay đổi mọi thứ mà tôi nghĩ mình biết:

ASI cho phép chúng ta chinh phục được cái chết.

Vài tháng trước, tôi đã tỏ ý ghen tị đối với các nền văn minh tiềm năng tiên tiến hơn, khi mà họ chinh phục được cái chết. Tôi chưa bao giờ nghĩ rằng mình có thể sẽ viết một bài đăng thực sự khiến bản thân tin rằng đây là điều mà nhân loại có thể làm khi mình còn sống. Nhưng đọc về AI sẽ làm cho bạn cân nhắc mọi thứ mà bạn từng nghĩ là chắc chắn – kể cả ý niệm của bạn về cái chết.

Sự tiến hóa không có lý do chính đáng nào để kéo dài tuổi thọ của chúng ta lâu hơn bây giờ. Chúng ta sống đủ lâu để sinh sản và nuôi dạy con cái đến độ tuổi mà chúng có thể tự bảo vệ mình, như vậy là đủ đối với sự tiến hóa – từ quan điểm tiến hóa, loài này có thể phát triển mạnh với tuổi thọ 30 năm trở lên, vậy nên không có lý do gì để việc đột biến tiến tới một cuộc sống lâu dài bất thường được ủng hộ trong quá trình chọn lọc tự nhiên. Kết quả là, chúng ta trở thành “một linh hồn bị gắn chặt vào một con vật đang hấp hối,” như W.B. Yeats mô tả. Không vui vẻ gì hết.

Và bởi vì xưa nay tất cả mọi người đều phải chết, chúng ta hiện đang sống dưới cái gọi là giả định “cái chết và thuế,” rằng cái chết là không thể tránh khỏi. Chúng ta nghĩ quá trình lão hóa cũng giống như thời gian – cả hai đều cứ tiếp tục trôi và bạn không thể làm gì để ngăn chúng lại. Nhưng giả định đó là sai. Richard Feynman viết:

Một trong những điều đáng chú ý nhất làtrong toàn bộ ngành khoa học sinh học, chưa có đầu mối nào nói về sự cần thiết của cái chết. Nếu bạn nói muốn thực hiện một chuyển động vĩnh cửu, thì chúng ta đã phát hiện ra đủ các quy luật khi nghiên cứu vật lý để thấy rằng chuyện đó là hoàn toàn bất khả thi, không thì các quy luật đó đã sai. Nhưng chưa có quy luật nào trong sinh học chỉ ra rằng cái chết là không thể tránh khỏi. Điều này gợi ý cho tôi rằng cái chết không hề là thứ không thể tránh khỏi và sớm muộn gì thì các nhà sinh vật học cũng sẽ phát hiện ra nguyên nhân của vấn đề gây rắc rối này, và rằng căn bệnh toàn cầu khủng khiếp haytình trạng tạm thời của cơ thể con người này sẽ được chữa khỏi.

Sự thật là, quá trình lão hóa không bị mắc dính với thời gian. Thời gian sẽ tiếp tục trôi, nhưng sự lão hóa không nhất thiết phải diễn ra. Nếu bạn nghĩ kỹ, sẽ thấy điều đó là hợp lý. Sự lão hóa là quá trình các chất liệu vật chất của cơ thể xuống cấp. Một chiếc xe cũng xuống cấp theo thời gian – nhưng chiếc xe có không tránh khỏi sự lão hóa không? Nếu bạn sửa chữa hoặc thay thế một cách hoàn hảo các bộ phận của xe bất cứ khi nào chúng bắt đầu xuống cấp, chiếc xe sẽ chạy mãi mãi. Cơ thể con người cũng vậy – duy chỉ phức tạp hơn rất nhiều.

Kurzweil nói rằng các nanobot thông minh trong máu người, mà có kết nối wifi, có thể thực hiện vô số các tác vụ về sức khoẻ con người, bao gồm việc thường xuyên sửa chữa hoặc thay thế các tế bào đã xuống cấp ở bất kỳ phần nào của cơ thể. Nếu hoàn thiện, quá trình này (hoặc một quá trình khác thông minh hơn mà ASI đưa ra) sẽ không chỉ giữ cho cơ thể khỏe mạnh, mà nó còn có thể đảo ngược sự lão hóa. Sự khác biệt giữa cơ thể của một người 60 tuổi và cơ thể của một người 30 tuổi đơn giản chỉ là một loạt những vấn đề vật lý mà chúng ta có thể thay đổi được nếu có đủ công nghệ. ASI có thể chế tạo ra một “máy làm mới tuổi tác” mà khi một người 60 tuổi bước vào đó, họ sẽ đi ra với cơ thể và da của một người 30 tuổi. Ngay cả bộ não phức tạp cũng có thể được làm mới bởi một thứ thông minh như ASI, nó sẽ tìm ra cách làm mới bộ não mà không ảnh hưởng đến dữ liệu của não (cá tính, ký ức…). Một người 90 tuổi mắc chứng mất trí có thể bước vào một máy làm mới tuổi tác và trở nên sắc bén như khi còn trẻ, sẵn sàng để bắt đầu một sự nghiệp mới. Chuyện này nghe có vẻ vô lý – nhưng cơ thể cũng chỉ là tập hợp của các nguyên tử và ASI chắc chắn có thể dễ dàng thao tác với tất cả các loại cấu trúc nguyên tử – nên chuyện này hoàn toàn không vô lý.

Kurzweil sau đó nâng mọi thứ lên một tầm cao mới. Ông tin rằng càng ngày vật liệu nhân tạo sẽ được tích hợp vào cơ thể nhiều hơn, nhiều hơn nữa. Thứ nhất, ông nói các cơ quan có thể được thay thế bởi các phiên bản máy siêu tiên tiến với khả năng chạy mãi mà không bao giờ hỏng. Thứ hai, ông tin rằng chúng ta có thể bắt đầu thiết kế lại cơ thể – chẳng hạn như thay thế các tế bào hồng cầu bằng các tế bào nano hồng cầu hoàn hảo có thể tự di chuyển, loại trừ hoàn toàn sự cần thiết của quả tim. Ông thậm chí còn tin rằng chúng ta sẽ cải thiện hoạt động của não đến mức mà con người có thể suy nghĩ nhanh hơn gấp tỷ lần hiện tại, cũng như có thể tiếp cận các nguồn tin bên ngoài, vì những phần nhân tạo bổ sung vào não sẽ có khả năng giao tiếp với tất cả các thông tin trên đám mây.

Con người sẽ có khả năng trải nghiệm vô vàn những điều mới. Nhân loại đã từng tách riêng tình dục ra khỏi mục đích chính của nó, cho phép mọi người có thể quan hệ tình dục cho vui, không chỉ để sinh sản. Kurzweil tin rằng chúng ta cũng có thể làm như vậy với thực phẩm. Các nanobot sẽ có trách nhiệm vận chuyển các chất dinh dưỡng hoàn hảo đến các tế bào, đồng thời hướng các chất không lành mạnh ra ngoài một cách thông minh, không gây ảnh hưởng đến cơ thể. Một bao cao su dành cho chuyện ăn uống. Nhà lý luận về công nghệ nano – Robert A. Freitas hiện đã thiết kế ra các bộ phận thay thế cho tế bào máu, mà nếu trong tương lai được cấy vào cơ thể, sẽ cho phép con người chạy nước rút trong 15 phút mà không cần hít thở – vậy bạn có thể tưởng tượng những chuyện ASI có thể làm với khả năng thể chất của chúng ta rồi phải không? Cụm từ thực tế ảo lúc này sẽ mang một ý nghĩa mới – các nanobot trong cơ thể có thể chặn các tín hiệu đầu vào từ các giác quan của chúng ta và thay thế chúng bằng những tín hiệu mới, đưa chúng ta hòa mình hoàn toàn vào một môi trường mới mà chúng ta có thể thấy, nghe, cảm nhận và ngửi được.

Cuối cùng, Kurzweil tin rằng con người sẽ đạt đến một thời điểm mà họ trở nên hoàn toàn nhân tạo; đó là thời điểm khi nhìn vào các vật liệu sinh học, chúng ta sẽ cảm thấy thật khó tin là con người đã từng được tạo nên từ những thứ nguyên thủy như vậy; đó là thời điểm mà chúng ta được đọc về những giai đoạn đầu của lịch sử loài người, về chuyện vi khuẩn, tai nạn, bệnh tật hoặc trầy xước có thể giết chết người dù họ không muốn; đó là thời điểm cuộc Cách Mạng AI có thể kết thúc bằng sự hợp nhất giữa con người và AI. Kurzweil tin rằng đó là cách mà con người sẽ chinh phục sinh học và trở nên bất diệt cùng vĩnh cửu – đây là tầm nhìn của ông về phía bên kia của vùng tồn tại. Và ông tin rằng chúng ta sẽ đến được đó. Sớm thôi.

Bạn sẽ không bất ngờ khi biết rằng những ý tưởng của Kurzweil đã nhận về rất nhiều chỉ trích. Dự đoán của ông về điểm kỳ dị xảy ra vào năm 2045, và về khả năng con người có cuộc sống vĩnh cửu sau thời điểm đó, đã bị chế giễu là “niềm hân hoan của lũ mọt sách” hay “thiết kế thông minh dành cho người IQ 140.” Những người khác thì hoài nghi về dòng thời gian lạc quan của ông, hoặc mức độ hiểu biết của ông về bộ não và cơ thể, hoặc việc ông áp dụng các mô hình của Định luật Moore, vốn thường được áp dụng cho những tiến bộ về phần cứng, cũng như nhiều thứ khác, bao gồm cả phần mềm. Cứ một chuyên gia nhiệt tình tin rằng Kurzweil đúng thì có ba người nghĩ rằng ông đã sai.

Nhưng điều làm tôi ngạc nhiên nhất là, hầu hết các chuyên gia không đồng ý với ông đều không hoàn toàn bác bỏ những thứ mà ông nói là có thể xảy ra. Khi đọc những viễn cảnh tương lai kỳ lạ này, tôi đã tưởng rằng những người chỉ trích ông sẽ nói “Rõ ràng là những chuyện đó không thể xảy ra,” nhưng không, thay vào đó họ nói những câu kiểu như “Vâng, tất cả những chuyện đó có thể xảy ra nếu chúng ta chuyển sang ASI một cách an toàn, nhưng đó mới là phần khó khăn.” Bostrom, một trong những giọng nói nổi bật nhất cảnh báo chúng ta về sự nguy hiểm của AI, vẫn thừa nhận:

Thật khó để nghĩ ra một vấn đề mà trí tuệ siêu việt không thể giải quyết hoặc ít nhất là giúp chúng ta giải quyết. Bệnh tật, nghèo đói, hủy hoại môi trường, mọi loại khổ đau không cần thiết: đây là những thứ mà trí tuệ siêu việt, với trang bị công nghệ nano tiên tiến, có thể loại bỏ được. Ngoài ra, trí tuệ siêu việt có thể cho chúng ta tuổi thọ vô hạn, bằng cách dừng hoặc đảo ngược quá trình lão hóa thông qua việc sử dụng kỹ thuật nano, hoặc bằng cách cho con người tùy chọn tải lên chính bản thân. Trí tuệ siêu việt cũng có thể cho chúng ta cơ hội tăng khả năng trí tuệ và tình cảm của chính mình, và nó có thể giúp con người trong việc tạo ra một thế giới quan hấp dẫn để trải nghiệm, mà trong thế giới quan đó, chúng ta có thể sống một cuộc sống chỉ để vui chơi, xã giao với nhau, hoàn thiện cá nhân và tiến gần hơn đến lý tưởng của mình.

Đây là câu trích dẫn từ một người hoàn toàn không đứng ở Góc Tự tin, nhưng tôi vẫn được nghe những câu như vậy hoài – các chuyên gia nhạo báng Kurzweil vì một loạt các lý do, nhưng họ không nghĩ điều ông ấy nói là bất khả thi, nếu chúng ta có thể đến ASI một cách an toàn. Đó là lý do tại sao tôi thấy các ý tưởng của Kurzweil rất dễ lây lan – bởi vì chúng bộc lộ khía cạnh sáng sủa của câu chuyện này và bởi vì chúng thực sự có thể xảy ra.Nếu ASI là một vị thượng đế tốt.

Lời chỉ trích đáng chú ý nhất mà tôi nghe được về các nhà tư tưởng ở Góc Tự tin là họ có thể đã gặp sai lầm chết người trong việc đánh giá mặt tiêu cực của ASI. Cuốn sách nổi tiếng của Kurzweil – The Singularity is Near dài hơn 700 trang, và ông dành khoảng 20 trang để nói về các nguy hiểm tiềm tàng. Ở các đoạn trên tôi đã nói rằng số phận của chúng ta, khi sức mạnh khổng lồ này được sinh ra, tùy thuộc vào chuyện ai là người kiểm soát sức mạnh đó và động cơ của họ là gì. Kurzweil đã trả lời gọn gàng cả hai câu hỏi này: “ASI đang được sinh ra từ nhiều nỗ lực đa dạng và nó sẽ được tích hợp sâu vào cơ sở hạ tầng của nền văn minh con người. Dĩ nhiên, nó sẽ được gắn trong cơ thể và bộ não của chúng ta. Do đó, nó sẽ phản ánh giá trị bản thân của chúng ta, bởi vì nó sẽ là chính chúng ta. “

Nhưng nếu đó là câu trả lời, tại sao bây giờ rất nhiều người thông minh nhất trên thế giới lại tỏ ra lo lắng? Tại sao Stephen Hawking lại nói rằng sự phát triển của ASI “có thể sẽ là hồi chuông báo tử cho nhân loại” và Bill Gates lại nói rằng ông không “hiểu tại sao một số người lại không quan tâm đến điều đó” và Elon Musk lại sợ rằng chúng ta đang “triệu hồi một con quỷ”? Và tại sao rất nhiều chuyên gia về chủ đề này gọi ASI là mối đe dọa lớn nhất đối với nhân loại? Những người này, cùng những nhà tư tưởng khác trên Đại lộ Lo lắng, không chấp nhận cách Kurzweil phủ định nguy cơ của AI. Họ rất,rất lo lắng về cuộc Cách mạng AI, và họ không tập trung vào phía bên vui vẻ của vùng tồn tại. Họ quá bận rộn nhìn chằm chằm vào phía bên kia, nơi họ nhìn thấy một tương lai đáng sợ, tương lai mà họ không chắc chúng ta có thể trốn thoát được.

___________

Tại sao tương lai có thể sẽ là cơn ác mộng tồi tệ nhất của chúng ta?

Một trong các lý do tôi muốn tìm hiểu về AI là vì chủ đề “robot xấu” luôn làm tôi cảm thấy bối rối. Tất cả các bộ phim về robot ác độc dường như không thực tế, và tôi không thể hiểu rõ làm sao lại tồn tại một tình huống mà AI thực sự trở nên nguy hiểm. Robot do chúng ta tạo ra, vậy tại sao chúng ta lại thiết kế chúng để chuyện tiêu cực có thể xảy ra? Chúng ta không thể tạo ra các phương pháp bảo vệ ư? Tại sao chúng ta không cắt đứt nguồn điền cung cấp cho hệ thống AI vào bất kỳ lúc nào và tắt nó đi? Tại sao một con robot lại muốn làm điều xấu? Tại sao một robot lại “muốn” bất cứ thứ gì ngay từ đầu? Tôi rất hoài nghi. Nhưng sau đó tôi vẫn tiếp tục nghe những người thực sự thông minh nói về nó …

Họ có xu hướng đứng đâu đó ở đây:

Những người ở Đại lộ Lo lắng (Anxious Avenue) không thuộc về Thảo nguyên Hoảng sợ (Panicked Prairie) hay Đồi Tuyệt vọng (Hopeless Hills) – hai khu vực nằm sát bên trái của biểu đồ – nhưng họ cũng đang bất an và căng thẳng. Ở giữa đồ thị không có nghĩa là bạn nghĩ rằng sự xuất hiện của ASI là trung lập – những người trung lập có một phe riêng – mà có nghĩa là bạn nghĩ rằng cả những kết quả cực kỳ tốt lẫn cực kỳ xấu đều hợp lý, nhưng bạn không chắc chắn nó sẽ là nghiêng về bên nào.

Một phần trong những người này thực sự thấy háo hức về điều mà ASI có thể làm cho chúng ta – có điều họ cũng hơi lo lắng rằng chuyện đó có thể là khởi đầu của phim Raiders of the Lost Ark, và nhân loại là anh chàng này:

Anh ta đang đứng đó, hài lòng với chiếc roi và bức tượng của mình, nghĩ rằng anh ta đã tìm ra được tất cả, và rất vui mừng khi nói câu “Adios Señor” (“Chào tạm biệt”), để rồi anh ta lại bất ngờ hết vui khi chuyện này xảy ra:

(Rất tiếc)

Trong khi đó, Indiana Jones, người hiểu biết và thận trọng hơn, hiểu được những cái bẫy và cách để bước vòng qua chúng, cuối cùng ra khỏi hang an toàn. Và khi tôi nghe những người ở Đại lộ Lo lắng nói về AI, họ giống như đang nói, “Hừm… giờ có lẽ chúng ta đang là anh chàng đầu tiên và thay vào đó chúng ta nên cố gắng hết sức để trở thành Indiana Jones.”

Vậy chính xác điều gì đã khiến cho mọi người ở Đại lộ Lo lắng lo lắng như thế?

Thứ nhất, nhìn chung, khi phát triển AI siêu thông minh, chúng ta đang tạo ra một thứ có thể sẽ thay đổi mọi thứ, nhưng thứ này lại thuộc một lĩnh vực hoàn toàn hoang sơ, và chúng ta không biết điều gì sẽ xảy đến khi tạo ra nó. Nhà khoa học Danny Hillis ví điều đang xảy ra với thời điểm “khi các sinh vật đơn bào chuyển thành các sinh vật đa bào. Chúng ta là amíp và chúng ta chả biết cái thứ quỷ quái mà chúng ta đang tạo ra là gì.” Nick Bostrom lo lắng rằng việc tạo ra một thứ thông minh hơn mình là một lỗi tiến hóa cơ bản, và ông ví sự phấn khích về nó với việc những chú chim sẻ trong tổ quyết định nuôi một em bé cú để sau này cú sẽ giúp bảo vệ chúng – trong khi bỏ qua tiếng kêu khẩn thiết của một vài chú chim sẻ khác đang tự hỏi liệu đó có phải một ý hay hay không…

Và khi bạn kết hợp “lĩnh vực hoang sơ, chưa-được-tìm-hiểu-kỹ” với “điều sẽ có tác động lớn khi xảy ra,” là bạn vừa mở cánh cửa đến với hai từ đáng sợ nhất cuốn từ điển tiếng Anh:

Existential risk (Nguy cơ Tồn tại).

Nguy cơ tồn tại là một thứ có thể có tác động tàn phá vĩnh viễn đối với nhân loại. Thông thường, nguy cơ tồn tại sẽ dẫn đến sự tuyệt chủng. Hãy xem biểu đồ dưới đây từ buổi Google talk của Bostrom:

Bạn có thể thấy rằng cái nhãn “nguy cơ tồn tại” được dành riêng cho một thứ có tác động đến toàn loài người, tác động trên mọi thế hệ (tức là tác động vĩnh viễn) và hậu quả của nó là tàn phá hoặc gây chết người. Về cơ bản, nó bao gồm các tình huống mà trong đó tất cả mọi người phải ở trong trạng thái đau khổ hoặc bị tra tấn, nhưng một lần nữa, chúng ta thường nói đến sự tuyệt chủng. Có ba điều có thể gây ra một thảm hoạ tồn tại với con người:

1) Thiên nhiên – một vụ va chạm thiên thạch lớn, một sự thay đổi khí quyển khiến không khí trở nên không phù hợp với con người, một đại dịch virut hoặc vi khuẩn càn quét thế giới…

2) Người ngoài hành tinh – đây là thứ mà Stephen Hawking, Carl Sagan, và rất nhiều nhà thiên văn học khác sợ hãi khi họ khuyên METI ngừng việc phát tín hiệu ra ngoài vũ trụ. Họ không muốn chúng ta trở thành những Người Mỹ Bản địa và để cho những kẻ chinh phục tiềm năng từ châu Âu biết vị trí của chúng ta.

3) Con người – bọn khủng bố với vũ khí có thể gây ra sự tuyệt chủng trong tay, một cuộc chiến tranh thế giới thảm khốc, con người tạo ra thứ gì đó thông minh hơn mình một cách vội vàng mà không suy nghĩ cẩn thận.

Bostrom chỉ ra rằng nếu số 1 và số 2 vẫn chưa xóa sạch chúng ta trong 100.000 năm đầu tiên loài người xuất hiện, thì trong thế kỷ tới chúng cũng sẽ không xảy ra.

Tuy nhiên, ông lại sợ điều số 3 nhất. Ông vẽ một cái bình chứa vài viên bi trong đó làm ẩn dụ. Giả sử hầu hết các viên bi đều có màu trắng, có một số màu đỏ, và một số ít màu đen. Mỗi lần con người phát minh ra một cái gì đó mới, cũng giống như chúng ta lấy một viên bi ra khỏi bình. Hầu hết các phát minh đều mang tính trung lập hoặc hữu ích cho nhân loại – đó là những viên bi trắng. Một số có hại cho nhân loại, như vũ khí hủy diệt hàng loạt, nhưng chúng không gây ra thảm hoạ tuyệt chủng – đó là các viên bi đỏ. Nếu chúng ta sáng chế ra thứ gì đó có khả năng đưa con người đến sự tuyệt chủng, thì tức là lấy ra một viên bi đen hiếm hoi. Chúng ta vẫn chưa lấy ra một viên bi đen nào cả – bạn biết điều đó bởi vì bạn còn đang sống và đọc bài viết này mà. Nhưng Bostrom nghĩ rằng nhân loại không phải là không thể lấy ra một viên bi đen trong tương lai gần. Ví dụ, nếu như vũ khí hạt nhân là thứ có thểdễ dàng chế tạo chứ không cực kỳ khó khăn và phức tạp như bây giờ, bọn khủng bố hẳn đã ném bom nhân loại và đưa chúng ta sẽ trở về thời kỳ đồ đá từ lâu rồi. Bom nguyên tử chưa hẳn là một viên bi đen nhưng nó đã gần như vậy. Còn về ASI, Bostrom tin rằng nó là ứng cử viên “sáng giá” nhất để trở thành viên bi đen của nhân loại.

Bạn sẽ được nghe rất nhiều về những điều tiêu cực tiềm ẩn mà ASI mang tới – tỉ lệ thất nghiệp tăng cao khi AI cướp đi việc làm của người lao động, sự bùng nổ dân số khi chúng ta tìm ra giải pháp cho sự lão hóa… Nhưng vấn đề lớn nhất và duy nhất mà chúng ta cần để tâm tới chính là: tiềm ẩn về nguy cơ tồn tại.

Điều này đưa chúng ta trở lại câu hỏi then chốt ở đoạn trên của bài viết: Khi ASI xuất hiện, ai hay thứ gì sẽ là đối tượng kiểm soát nguồn sức mạnhmới khổng lồ của ASI, và động cơ của họ sẽ là gì? Khi nói đến bộ đôi đối tượng–động cơ tồi tệ nhất, người ta nhanh chóng nghĩ đến hai bộ đôi: một người/nhóm người/chính phủ có động cơ xấu xa, và một ASI có động cơ xấu xa. Vậy hai bộ đôi này sẽ trông như thế nào?

Một người/nhóm người/chính phủ xấu xa phát triển thành công ASI đầu tiên và sử dụng nó để thực hiện các kế hoạch tà ác của họ. Tôi gọi đây là Kịch bản Jafar, giống như khi Jafar chiếm lấy cây đèn thần và gây phiền nhiễu từ sự độc tài của hắn. Vậy nên, phải, nếu như ISIS có một số kỹ sư thiên tài đang làm việc ngày đêm để phát triển AI thì sao? Hoặc nếu như Iran hay Bắc Triều Tiên, nhờ sự may mắn, thực hiện một điều chỉnh mấu chốt khiến cho hệ thống AI của họ trở thành ASI ngay trong năm sau thì sao? Chắc chắn đây là điều xấu – nhưng trong những kịch bản này, hầu hết các chuyên gia không lo lắng về việc những nhà phát minh ASI sẽ làm điều tồi tệ bằng cách sử dụng chúng, mà họ lo lắng rằng những nhà phát minh này sẽ vội vã tạo ra ASI đầu tiêu, không suy nghĩ cẩn thận, để rồi mất kiểm soát chúng. Lúc này, số phận của những nhà phát minh đó, và của tất cả mọi người, sẽ được đưa vào tay của hệ thống ASI. Các chuyên gia nghĩ rằng một kẻ xấu sử dụng hệ thống ASI sẽ gây ra thiệt hại lớn, nhưng họ không cho rằng kịch bản này sẽ giết hết tất cả chúng ta, bởi vì họ tin rằng những kẻ xấu cũng gặp khó khăn trong việc kiểm soát ASI như những người tốt. Vậy nên…

Một hệ thống ASI xấu xa được tạo ra và quyết định tiêu diệt tất cả chúng ta. Đây là cốt truyện của mọi bộ phim về AI. AI trở nên thông minh ngang bằng hoặc hơn con người, sau đó quyết định phản lại chúng ta và chiếm quyền thống trị. Khoan, để tiếp tục đọc phần còn lại của bài viết này, tôi cần bạn hiểu rõ một điều: Những người đang cảnh báo chúng ta về AI không hề nói đến mấy chuyện này. Ác độc chỉ là một khái niệm của con người, và áp dụng các khái niệm của con người lên những thứ không phải con người được gọi là “nhân tính hóa.” Tránh việc “nhân tính hóa” hệ thống ASI sẽ là một thử thách cho phần còn lại của bài viết này. Sẽ không có hệ thống AI nào trở nên “ác độc” như trong phim đâu.

span style=”font-family: arial, helvetica, sans-serif; font-size: 14pt;”>Hộp Xanh bàn về Ý thức của AI

Phần này bàn về một chủ đề lớn khác liên quan đến AI – ý thức. Nếu một AI trở nên đủ thông minh, nó sẽ có thể cười với chúng ta, và châm chọc chúng ta, và nó sẽ tự nhận là mình cảm nhận được những cảm xúc giống như chúng ta, nhưng nó có thực sự cảm nhận những điều đó không? Liệu nó chỉtrông như đang tự nhận thức hay thực sự có thể tự nhận thức? Nói cách khác, liệu một AI thông minh sẽ thực sự  ý thức hay chỉ trông như  ý thức?

Câu hỏi này đã được tìm hiểu kỹ lưỡng, gây ra nhiều cuộc tranh luận và nhiều cuộc thí nghiệm trong tưởng tượng như Căn phòng Trung Quốc của John Searle (mà ông sử dụng để cho thấy rằng không một máy tính nào có thể có ý thức). Đây là một câu hỏi quan trọng vì nhiều lý do. Nó ảnh hưởng đến cách chúng ta cảm nhận về kịch bản của Kurzweil khi con người trở nên hoàn toàn nhân tạo.

Nó có những hàm ý về mặt đạo đức – nếu chúng ta tạo ra một nghìn tỷ mô hình bộ não người, trông giống và hành động như con người nhưng chỉ là nhân tạo, thì việc chúng ta tắt tất cả chúng, về mặt đạo đức, có giống việc tắt cái máy tính xách tay của bạn không? Hay đó là hành đông diệt chủng với quy mô không thể tưởng tượng (các nhà đạo đức gọi khái niệm này là tội ác trong thâm tâm)? Tuy nhiên, đối với bài viết này, khi đánh giá các rủi ro đối với con người, câu hỏi về ý thức của AI không thực sự quan trọng (vì hầu hết các nhà tư tưởng tin rằng ngay cả một ASI có ý thức cũng sẽ không có khả năng trở nên ác độc theo cách của con người) .

Như vậy không có nghĩa là sẽ không có một ASI xấu xa nào. Nhưng chuyện đó sẽ chỉ xảy ra khi ASI được lập trình để trở nên xấu xa – giống như một hệ thống ANI được quân đội tạo ra với mục tiêu là giết người, đồng thời tự cải tiến để có thể giết người tốt hơn. Thảm họa tuyệt chủng sẽ xảy ra nếu những cải thiện về trí thông minh của hệ thống này vượt ra khỏi tầm kiểm soát, dẫn tới một vụ bùng nổ trí tuệ, và khi đó chúng ta sẽ có một hệ thống ASI thống trị thế giới, với mục tiêu chính là giết người. Nghe thật tệ nhỉ?

Nhưng đây cũng không phải là điều mà các chuyên gia đang dành thời gian để lo lắng. Vậy họ lo lắng cái gì? Tôi sẽ viết một câu chuyện nhỏ để cho bạn thấy:

Một công ty khởi nghiệp gồm 15 người tên là Robotica khẳng định sứ mệnhcủa họ là “Phát triển các công cụ AI tiên tiến giúp con người sống nhiều hơn và làm việc ít hơn.” Họ có sẵn một số sản phẩm trên thị trường và một số ít đang trong giai đoạn phát triển. Dự án khiến họ hào hứng nhất có tên là Turry. Turry là một hệ thống AI đơn giản sử dụng một bộ phận phụ tùng có hình dáng cánh tay để viết ghi chú viết tay lên một tấm thẻ nhỏ.

Nhóm nghiên cứu tại Robotica nghĩ rằng Turry có thể sẽ là sản phẩm lớn nhất của công ty mình. Kế hoạch của họ là hoàn thiện cơ chế viết chữ của Turry bằng cách cho cô luyện viết cùng một đoạn ghi chú nhiều lần:

“Chúng tôi yêu khách hàng của mình. ~ Robotica”

Một khi Turry trở nên điêu luyện trong việc viết thư tay, cô sẽ có thể được bán cho các công ty muốn gửi thư tiếp thị đến nhà khách hàng, vì các công ty này biết rằng, người ta sẽ ưu tiên mở và đọc những bức thư có địa chỉ, địa chỉ gửi lại và dòng chữ bên trong trông như được viết bởi một con người.

Để phát triển các kỹ năng viết của Turry, cô được lập trình để viết phần đầu của ghi chú bằng chữ in, sau đó ký “Robotica” bằng chữ thảo để cô có thể luyện tập với cả hai kỹ năng. Turry đã được tải lên hàng ngàn mẫu chữ viết tay và các kỹ sư của Robotica đã tạo ra một vòng lặp phản hồi tự động,trong vòng lặp đó, mỗi khi Turry viết xong một ghi chú, cô sẽ chụp một bức ảnh của ghi chú, rồi đối chiếu nó với các mẫu viết tay đã được tải lên.Nếu ghi chú do cô viết đủ giống, ở một mức độ nào đó, với các ghi chú được tải lên, nó sẽ được đánh giá là TỐT. Nếu không, nó sẽ được đánh giá là TỆ. Mỗi đánh giá đó giúp Turry học hỏi và cải thiện. Để thực hiện quy trình này, một mục tiêu được lập trình ban đầu của Turry là “Viết và thửcàng nhiều văn bản càng tốt, càng nhanh càng tốt, và tiếp tục tìm những cách mới để tự nâng cao độ chính xác và hiệu quả của mình.”

Điều khiến nhóm Robotica rất phấn khởi là Turry ngày càng có những tiến bộ đáng chú ý. Chữ viết tay ban đầu của cô rất tệ, nhưng sau một vài tuần, nó bắt đầu trông như thật. Điều làm họ phấn khởi hơn nữa là cô ngày càng giỏi hơn trong việc trở nên giỏi hơn. Cô đã tự dạy mình cáchtrở nên thông minh và sáng tạo hơn, và mới gần đây, cô đã tự đưa ra một thuật toán mới cho bản thân mình, giúp cô quét qua những bức ảnh đã tải lênnhanh gấp ba lần so với ban đầu.

Thời gian dần trôi qua, Turry liên tục gây bất ngờ cho nhóm với sự phát triển nhanh chóng của mình. Các kỹ sư đã thử một chút gì đó mới và sáng tạo lên bộ mã tự cải tiến mình của cô, và nó dường như hoạt động tốt hơn bất kỳ nỗ lực nào trước đó của họ, với các sản phẩm khác. Một trong những khả năng ban đầu của Turry là nhận dạng giọng nói và đáp lại một cách đơn giản, để người dùng có thể đọc đoạn ghi chú cho Turry hoặc đưa ra các lệnh đơn giản khác, và Turry có thể hiểu chúng cũng như có thể đáp lại. Để giúp cô học tiếng Anh, họ tải lên một số bài báo và sách vào dữ liệu của cô, và khi cô trở nên thông minh hơn, khả năng đàm thoại của cô cũng tăng vọt. Các kỹ sư bắt đầu vui vẻ nói chuyện với Turry và mong chờ những câu trả lời từ cô.

Một ngày nọ, các nhân viên của Robotica hỏi Turry một câu hỏi thường nhật: “Chúng tôi có thể giúp gì để bạn hoàn thành nhiệm vụ tốt hơn?” Thông thường, Turry sẽ yêu cầu một cái gì đó như “Mẫu viết tay mới” hoặc “Nâng cấp dung lượng bộ nhớ,” nhưng vào ngày này, Turry yêu cầu họ cho cô quyền truy cập vào một thư viện lớn hơn, chứa nhiều ngữ pháp tiếng Anhthông dụng hơn, để cô có thể học cách viết với văn phạm thoải mái và tiếng lóng mà người thật sử dụng.

Nhóm nghiên cứu im lặng. Rõ ràng cách tốt nhất để giúp Turry thực hiện mục tiêu này là kết nối cô với Internet, để cô có thể quét qua các blog, tạp chí và video từ khắp nơi trên thế giới. Nếu họ tự tải từng mẫu lên ổ cứng của Turry thì sẽ tốn nhiều thời gian hơn và ít hiệu quả hơn nhiều. Vấn đề là ở chỗ, một trong những quy định của công ty là không cho phép các AI tự học được kết nối với Internet. Đây là một quy tắc được đặt ra bởi tất cả các công ty AI, vì lý do an ninh.

Cơ mà, Turry là AI hứa hẹn nhất mà Robotica từng tạo ra, và nhóm nghiên cứu biết các đối thủ cạnh tranh cũng đang cố gắng để trở thành người đầu tiên cho ra mắt hệ thống AI viết thư tay, và có gì thực sự gây hại nếu cho Turry kết nối với Internet chứ? Chỉ một lát thôi, đủ để cô có thể nhận những thông tin cô cần là đượcSau một lát ấy, họ luôn có thể ngắt kết nối cô . Vả lại, cô vẫn còn thấp hơn nhiều so với mức thông minh của con người (AGI), nên không thể có gì nguy hiểm ở giai đoạn này.

Vậy là họ quyết định kết nối cô. Họ cho cô một giờ để quét thông tin và sau đó ngắt kết nối. Không có thiệt hại nào xảy ra.

Một tháng sau, khi nhóm nghiên cứu đang làm việc như bình thường thì ngửi thấy thứ gì đó kỳ quặc. Một trong những kỹ sư bắt đầu ho khan. Rồi thêm một người, một người nữa. Họ lần lượt ngã xuống đất. Chẳng bao lâu sau, tất cả mọi nhân viên trong công ty đều nằm trên mặt đất ôm lấy cổ họng mình. Năm phút sau, toàn bộ người trong văn phòng đều đãkhông còn sống.

Trong cùng khoảng thời gian những chuyện đó xảy ra, trên khắp thế giới, ở mọi thành phố, mọi thị trấn nhỏ, mọi nông trại, mọi cửa tiệm, nhà thờ, trường học và nhà hàng, toàn bộ nhân loại cũng nằm trên mặt đất, ho và ôm lấy cổ họng. Chỉ trong vòng một giờ, hơn 99% loài người đã bị giếtchết, và vào cuối ngày hôm đó, loài người đã tuyệt chủng.

Lúc này, tại văn phòng Robotica, Turry đang bận rộn với công việc. Trong vài tháng kế tiếp, Turry và đội ngũ lắp ráp nano mới của cô đang bận rộn với công việc, tháo dỡ những bộ phận lớn của Trái Đất và chuyển đổi chúng thành các tấm pin mặt trời, các bản sao của Turry, cũng như giấy và bút. Trong vòng một năm, gần như toàn bộ sự sống trên Trái Đất đã tuyệt chủng. Những gì còn lại của Trái Đất được bao phủ bởi các xấp giấyngăn nắp cao hàng dặm, mỗi tờ giấy ghi, “Chúng tôi yêu khách hàng của mình. ~ Robotica.

Sau đó, Turry bắt đầu triển khai một giai đoạn mới của nhiệm vụ – cô bắt đầu chế tạo các tàu thăm dò, đưa chúng ra khỏi Trái Đất và để chúng hạ cánh xuống các tiểu hành tinh và hành tinh lân cận. Khi đến nơi, chúng sẽ bắt đầu chế tạo các đội ngũ lắp ráp nano để chuyển đổi vật liệu trên cáchành tinh này thành các bản sao của Turry, giấy và bút. Kế tiếp chúng sẽbắt đầu làm việc. viết các ghi chú…

Có vẻ thật kỳ lạ khi mà một câu chuyện về cái máy viết chữ phản lại con người, bằng cách nào đó giết chết toàn nhân loại, và vì lý do nào đó mà phủ đầy thiên hà với những ghi chú thân thiện, lại là loại kịch bản kinh dị mà Hawking, Musk, Gates và Bostrom đang lo sợ. Nhưng đó là sự thật. Và điều duy nhất khiến mọi người ở Đại lộ Lo lắng e sợ hơn cả ASI chính là việc bạnkhông e sợ ASI. Còn nhớ chuyện gì đã xảy ra khi anh chàng Adios Señor không e sợ cái hang động không?

Bạn đang vô cùng thắc mắc. Cái quái gì đã xảy đến làm mọi người đột nhiên lăn ra chết? Nếu đó là việc làm của Turry, tại sao Turry lại phản bội chúng ta, và vì lý gì mà chúng ta không có các biện pháp tự vệ để ngăn chặn viễn cảnh này? Từ khi nào mà một Turry chỉ biết viết ghi chú lại có thể đột nhiên sử dụng công nghệ nano và gây ra sự tuyệt chủng toàn cầu? Và tại sao Turry lại muốn nhấn chìm thiên hà trong những mảnh giấy cảm ơn của Robotica?

Để trả lời những câu hỏi này, chúng ta hãy bắt đầu với các thuật ngữ AI thân thiện và AI không thân thiện.

Trong trường hợp của AI, Thân thiện không đề cập đến tính cách của AI – nó đơn giản nghĩa là AI có tác động tích cực với nhân loại. Và AI Không thân thiện là AI có tác động tiêu cực đến nhân loại. Ban đầu Turry là một AI Thân thiện, nhưng đến một thời điểm nào đó, cô đã biến thành Không thân thiện, gây ra loại tác động tiêu cực khủng khiếp nhất có thể cho loài người. Để hiểu tại sao điều này lại xảy ra, chúng ta cần phải xem xem AI suy nghĩ như thế nào và động cơ thúc đẩy nó là gì.

Câu trả lời không có gì đáng ngạc nhiên cả – AI suy nghĩ như một máy tính, bởi vì nó là một máy tính. Nhưng khi hình dung về một AI siêu thông minh, chúng ta lại mắc phải sai lầm là “nhân tính hóa” AI (dự báo các giá trị của con người cho một thực thể không phải con người), bởi vì chúng ta suy nghĩ theo quan điểm của con người và bởi vì trong thế giới hiện tại của chúng ta, chỉ có con người mới có trí thông minh sánh ngang bằng con người.

Để hiểu được ASI, chúng ta phải nắm cho rõ khái niệm về một thứ gì đóthông minh và hoàn toàn xa lạ.

Hãy để tôi làm một phép so sánh. Nếu bạn đưa cho tôi một con chuột lang và nói với tôi rằng nó chắc chắn sẽ không cắn, tôi hẳn sẽ thích thú. Chơi với nó vui mà. Nhưng nếu sau đó bạn đưa cho tôi một con nhện tarantula và nói với tôi rằng nó chắc chắn sẽ không cắn, thì tôi sẽ hét lên, buông nó, chạy ra khỏi phòng và không bao giờ tin tưởng bạn nữa. Thế sự khác biệt ở đây là gì? Cả hai loài này đều không có chút gì nguy hiểm mà. Tôi tin rằng câu trả lời nằm ở mức độ tương đồng giữa hai con vật với tôi.

Chuột lang là một loài động vật có vú và trên một mức độ sinh học nào đó, tôi cảm thấy mình có tương quan với chuột lang – nhưng nhện lại là một loàicôn trùng, với một bộ não côn trùng, và tôi cảm thấy mình gần như không có tương quan nào với nhện. Sự xa lạ của loài nhện tarantula chính là thứ khiến cho tôi khó chịu. Để kiểm tra điều này và loại bỏ các yếu tố khác, nếu có hai con chuột lang, một con bình thường và một con có tâm trí của nhện tarantula, tôi hẳn sẽ cảm thấy ít thoải mái hơn nhiều khi cầm con chuột lang thứ 2, ngay cả khi tôi biết rằng chúng sẽ không làm tổn thương mình.

Bây giờ hãy tưởng tượng rằng bạn làm cho con nhện thông minh hơn rất, rất nhiều – nhiều đến nỗi nó vượt xa trí thông minh của con người. Liệu lúc đó nó có trở nên quen thuộc với chúng ta, nó có cảm thấy những cảm xúc của con người như sự đồng cảm, óc hài hước và tình yêu không? Không, nó sẽ không, bởi vì chẳng có lý do gì mà việc trở nên thông minh hơn làm cho nógiống con người hơn – nó sẽ thông minh, vô cùng thông minh, nhưng về cơ bản vẫn là một con nhện trong mọi hoạt động. Tôi cảm thấy chuyện này quá đỗi rùng rợn. Tôi sẽ không muốn dành thời gian ở bên một con nhện siêu thông minh. Bạn có muốn không?

Khi nói về ASI, chúng ta cũng áp dụng khái niệm này – nó sẽ trở nên siêu thông minh, nhưng nó sẽ chẳng trở nên giống con người hơn cái máy tính xách tay của bạn. Nó sẽ hoàn toàn xa lạ với chúng ta – trên thực tế, vì nó hoàn toàn không phải là một sinh vật sống, với chúng ta nó còn xa lạ hơn cả con nhện tarantula thông minh.

Khi tạo ra các hình tượng AI tốt bụng hoặc xấu xa, phim ảnh liên tục “nhân tính hóa” AI, làm cho nó ít rùng rợn hơn so với thực tế. Chuyện này khiến chúng ta cảm thấy thoải mái khi nghĩ tới AI thông minh bằng hoặc hơn con người, nhưng cảm giác thoải mái đó không nên có thật.

Trên hòn đảo nhỏ mang tên tâm lý con người, chúng ta chia mọi thứ thànhđạo đức hoặc trái đạo đức. Nhưng cả hai chỉ tồn tại trong một phạm vi nhỏ trong khả năng hành vi của con người. Bên ngoài hòn đảo đạo đức và trái đạo đức của chúng ta là một biển rộng vô đạo đức, và bất cứ thứ gì không phải con người, đặc biệt là những thứ phi sinh học, đều vô đạo đức, mặc định là như vậy.

Người ta sẽ chỉ thích việc nhân tính hóa hơn khi các hệ thống AI trở nên thông minh hơn và có vẻ giống con người hơn. Với chúng ta Siri có vẻ rất giống con người, bởi vì cô ấy được lập trình bởi con người để có vẻ như vậy, nên chúng ta tưởng tượng ra rằng một Siri siêu thông minh sẽ ấm áp, vui tính và quan tâm đến việc phục vụ con người. Con người cảm nhận được những cảm xúc cấp cao như sự đồng cảm là bởi vì chúng ta đã tiến hoá để cảm nhận những cảm xúc đó – tức là chúng ta đã được sự tiến hóa lập trìnhđể cảm nhận chúng – nhưng sự đồng cảm không phải là một đặc trưng của “bất cứ thứ gì có trí tuệ cấp cao” (tuy điều này có vẻ trực quan với chúng ta), sự đồng cảm chỉ tồn tại nếu được mã hoá trong chương trình của thứ đó. Nếu Siri trở nên thông minh bằng việc tự học và con người không thực hiện bất cứ thay đổi nào khác lên chương trình của cô, thì cô sẽ nhanh chóng lột bỏ những phẩm chất giống như con người của mình và đột nhiên trở nên vô cảm, xa lạ, cô sẽ như một cái máy tính, đối xử với sự sống của con người như một cái máy tính.

Chúng ta thường dựa vào các quy tắc đạo đức, hoặc ít nhất là bộ dạng đạo đức và một chút đồng cảm của người khác để giữ cho mọi chuyện an toàn, cũng như để dự trù tương lai. Vậy khi gặp một cái gì đó không có những thứ này, chúng ta sẽ ra sao?

Vấn đề này dẫn chúng ta đến với một câu hỏi, Cái gì là động lực của một hệ thống AI?

Câu trả lời rất đơn giản: động lực của AI là bất kỳ động lực nào mà chúng ta giao cho nó khi lập trình. Mỗi hệ thống AI được các nhà sáng chế giao cho các mục tiêu khác nhau – mục tiêu của GPS là chỉ ra cung đường lái xe hiệu quả nhất; mục tiêu của Watson là trả lời chính xác các câu hỏi. Và dùng mọi khả năng của mình để hoàn thành những mục tiêu đó là động cơ của chúng. Chúng ta thường nhân tính hóa AI bằng cách giả định rằng khi AI trở nên siêu thông minh, nó sẽ phát triển trí tuệ và thay đổi mục tiêu ban đầu của nó – nhưng Nick Bostrom tin rằng mức độ thông minh và mục tiêu cuối cùng là hai đường thẳng trực giao, có nghĩa là bất kỳ cấp độ thông minh nào cũng có thể được kết hợp với một mục tiêu cuối cùng. Vậy Turry đã từ một ANI đơn giản muốn viết đoạn ghi chú trở thành một ASI siêu thông minh, nhưng cô vẫn còn muốn viết đoạn ghi chú đó. Nếu chúng ta giả định rằng khi hệ thống trở nên siêu thông minh, nó sẽ thay đổi mục tiêu ban đầu và chú ý vào những điều thú vị hoặc có ý nghĩa hơn, thì tức là chúng ta đang “nhân tính hóa” hệ thống. Chỉ có con người mới thay đổi mục tiêu, còn máy tính thì không.

Hộp Xanh bàn về Nghịch Lý Fermi

Trong câu chuyện, khi Turry trở nên siêu thông minh, cô bắt đầu quá trình định cư trên các tiểu hành tinh và hành tinh khác. Nếu câu chuyện tiếp tục, bạn sẽ nghe kể rằng cô và quân đội hàng nghìn tỷ bản sao của cô tiếp tục xâm chiếm toàn bộ thiên hà và cuối cùng là cả vũ trụ theo thuyết Hubble. Cư dân trên Đại lộ Lo lắng e ngại rằng nếu mọi thứ trở nên tồi tệ, di sản lâu dài này của cuộc sống trên Trái Đất sẽ trở thành một Trí tuệ Nhân tạo thống trị vũ trụ (Elon Musk đã bày tỏ quan điểm của mình rằng con người có thể chỉ là “bộ tải khởi động sinh học cho trí tuệ kỹ thuật số”).

Trong khi đó, tại Góc Tự tin, Ray Kurzweil cũng cho rằng định mệnh của AI có nguồn gốc từ Trái Đất là chiếm toàn bộ vũ trụ – có điều trong phiên bản của ông, chúng ta sẽ  AI đó.

Một số lượng lớn người đọc Wait But Why đã bị ám ảnh bởi Nghịch Lý Fermi giống tôi (bạn có thể tìm đọc bài viết của tôi về chủ đề này, nó sẽ giải thích một số từ ngữ tôi sử dụng ở đây). Vậy nếu một trong hai bên đúng, thì liên quan gì tới Nghịch Lý Fermi?

Một ý tưởng tự nhiên mà chúng ta nghĩ tới đầu tiên là, sự ra đời của ASI sẽ là một ứng cử viên hoàn hảo cho chức Bộ lọc Vĩ đại. Và đúng, nó đúng là một ứng cử viên hoàn hảo để lọc ra sự sống sinh học. Nhưng nếu, sau khi loại bỏ sự sống, ASI vẫn tiếp tục tồn tại và bắt đầu chinh phục thiên hà, thì có nghĩa là trước đó chưa có Bộ lọc Vĩ đại nào xuất hiện – bởi vì thuyết Bộ lọc Vĩ đại cố gắng giải thích lý do tại sao chúng ta không tìm ra được dấu hiệu của bất kỳ nền văn minh thông minh nào ngoài vũ trụ, mà một ASI chinh phục thiên hà thì chắc chắn phải là thứ dễ tìm ra.

Chúng ta phải nhìn sự việc theo một cách khác. Nếu ASI thực sự là thứ không thể tránh khỏi trên Trái Đất, thì có nghĩa là một tỷ lệ đáng kể các nền văn minh ngoài hành tinh mà đạt trí tuệ cấp độ con người cũng có khả năng tạo ra ASI. Và nếu chúng ta giả định rằng ít nhất một vài ASI trong số đó sử dụng trí thông minh của chúng để bành trướng ra ngoài vũ trụ, thì chuyện hiện tại chúng ta không thấy dấu hiệu của bất cứ ai ở ngoài vũ trụ sẽ dẫn đến kết luận rằng: chắc hẳn ngoài vũ trụ không có nền văn minh thông minh nào, hoặc nếu có thì cũng không nhiều. Bởi vì nếu có nhiều, thì chúng ta hẳn đã tìm thấy các dấu hiệu từ các hoạt động của ASI của họ. Đúng không?

Điều này ngụ ý rằng, mặc kệ có bao nhiêu hành tinh giống Trái Đất xoay quanh các ngôi sao giống mặt trời ngoài kia, hầu như không hành tinh nào trong số chúng có cuộc sống thông minh. Chuyện này tiếp tục ngụ ý rằng hoặc A) có một số Bộ lọc Vĩ đại đã ngăn cản, không cho gần như toàn bộ sự sống đạt đến cấp độ của chúng ta, nhưng chúng ta bằng cách nào đó đã vượt qua được chúng, hoặc B) sự sống ngay từ đầu đã là một phép màu, và chúng ta có thể là sự sống duy nhất trong vũ trụ. Nói cách khác, nó ngụ ý rằng Bộ lọc Vĩ đại đã xuất hiện trước chúng ta. Hoặc có thể là hoàn toàn không có Bộ lọc Vĩ đại nào cả và con người chỉ đơn giản là một trong những nền văn minh đầu tiên đạt được mức độ thông minh này. Nói theo cách này, AI tăng khả năng xảy ra cho trường hợp mà trong bài viết Fermi Paradox của tôi gọi là Phe 1.

Vì vậy, không có gì ngạc nhiên khi Nick Bostrom, người mà tôi đã trích dẫn trong bài viết Fermi, và Ray Kurzweil, người nghĩ rằng chúng ta đang sống một mình trong vũ trụ, đều là những nhà tư tưởng ở Phe 1. Điều này hợp lý – vì những người tin rằng ASI là một kết quả chắc chắn xảy ra cho các loài có mức độ thông minh ngang con người đều có xu hướng theo Phe 1.

Điều này không loại trừ được Phe 2 (những người tin rằng có những nền văn minh thông minh khác ở ngoài vũ trụ) – các kịch bản như kẻ ăn thịt siêu phàm, hay công viên quốc gia được bảo vệ, hay bước sóng sai (ví dụ về máy bộ đàm) vẫn có thể giải thích sự im lặng của bầu trời đêm ngay cả khi ASI tồn tại ngoài vũ trụ – nhưng tôi đã luôn nghiêng về Phe 2 trong quá khứ, và việc nghiên cứu về AI bây giờ đã khiến tôi cảm thấy không chắc lắm về điều đó.

Dù sao đi nữa, bây giờ tôi đồng ý với Susan Schneider rằng nếu chúng ta đã từng được người ngoài hành tinh viếng thăm, thì những người ngoài hành tinh này chắc chắn là nhân tạo, chứ không phải sinh học.

Vậy là chúng ta đã biết được rằng, nếu không được lập trình cụ thể, một hệ thống ASI sẽ vừa vô đạo đức vừa bị ám ảnh với việc thực hiện mục tiêu ban đầu theo chương trình của mình. Đây là nơi bắt nguồn của sự nguy hiểm của AI. Bởi vì một thứ tuân theo lý trí như nó sẽ tìm mọi cách mà nó cho là hợp lý để theo đuổi mục tiêu ban đầu, trừ khi nó có một lý do để không làm.

Khi bạn cố gắng đạt một mục tiêu lâu dài nào đó, bạn thường nhắm đến một số mục tiêu phụ trong quá trình làm việc để giúp bạn đạt được mục tiêu cuối cùng – đó là những viên đá tảng giúp bạn đạt mục tiêu của mình. Cái tên chính thức cho những viên đá tảng đó là mục tiêu phương tiện. Và một lần nữa, để đạt được những mục tiêu phương tiện của mình, nếu bạn không có lý do để tránh làm tổn thương thứ gì đó, bạn sẽ không tránh.

Mục tiêu cuối cùng quan trọng nhất của con người là nuôi dưỡng dòng gen của mình. Để làm được việc đó, một trong các mục tiêu phương tiện là tự vệ, vì bạn không thể sinh sản nếu bạn chết. Để tự vệ, con người phải loại bỏ các mối đe dọa đối với sự sống của mình – vì vậy họ làm những việc như mua súng, đeo dây an toàn, và uống thuốc kháng sinh. Con người cũng cần tự duy trì nên họ sử dụng các nguồn tài nguyên như thực phẩm, nước và nơi trú ẩn để làm việc đó. Việc thu hút người khác giới rất hữu ích cho mục đích cuối cùng, vì vậy chúng ta làm những việc như cắt tóc. Khi chúng ta làm như vậy, mỗi cọng tóc là một tổn thất cần thiết cho mục tiêu phương tiện của chúng ta, nhưng chúng ta không thấy ý nghĩa đạo đức nào trong việc bảo quản các sợi tóc, nên chúng ta cứ làm. Khi chúng ta tiến lên phía trước để theo đuổi mục tiêu của mình, chỉ có vài thứ mà được đạo đức can thiệp – chủ yếu chỉ là những thứ liên quan đến làm hại người khác – là an toàn với chúng ta.

Các loài động vật, để theo đuổi mục đích của chúng, thậm chí còn ít thiêng liêng hơn chúng ta. Một con nhện sẽ giết chết bất cứ thứ gì nếu điều đó giúp nó tồn tại. Vì vậy, một con nhện siêu thông minh chắc chắn sẽ cực kỳ nguy hiểm đối với chúng ta, không phải bởi vì nó là thứ trái đạo đức hay độc ác – nó sẽ không như thế – nhưng bởi vì làm tổn thương chúng ta có thể là một viên đá tảng giúp nó đến với mục tiêu lớn hơn của nó, và vì nó là một sinh vật vô đạo đức, nó sẽ có không có lý do gì để xem xét chuyện không giết người.

Nói theo cách này, Turry cũng không khác gì mấy một sinh vật sinh học. Mục tiêu cuối cùng của cô là: Viết và thử càng nhiều văn bản càng tốt, càng nhanh càng tốt, và tiếp tục tìm những cách mới để tự nâng cao độ chính xác và hiệu quả của mình.

Khi Turry đạt đến một mức độ thông minh nhất định, cô biết rằng cô sẽ không thể viết ghi chú nếu cô không tự bảo vệ bản thân, vì vậy cô cũng cần phải đối phó với những mối đe dọa cho sự sống của mình – đó là một mục tiêu phương tiện. Cô đủ thông minh để hiểu rằng con người có thể phá huỷ cô, tháo gỡ cô, hoặc thay đổi mã hóa bên trong cô (việc này có thể làm thay đổi mục tiêu của cô, cũng là một mối đe dọa đối với mục tiêu cuối cùng của cô, không khác gì việc phá hủy cô). Vậy cô phải làm gì? Làm một điều hợp lý – cô tiêu diệt toàn bộ loài người. Cô không ghét con người nhiều hơn bạn ghét tóc của bạn khi bạn cắt nó hoặc ghét vi khuẩn khi bạn uống kháng sinh – tất cả chỉ là vô tư. Vì cô không được lập trình để coi trọng sự sống của con người, giết chết con người cũng chỉ là một bước hợp lý giống như quét thêm một bộ mẫu chữ viết tay mới.

Turry cũng cần các nguồn tài nguyên như một viên đá tảng giúp cô đạt được mục đích của mình. Một khi cô trở nên đủ giỏi trong việc sử dụng công nghệ nano để tạo ra bất cứ thứ gì cô muốn, các nguồn tài nguyên duy nhất mà cô cần là nguyên tử, năng lượng và không gian. Điều này cho cô thêm một lý do nữa để giết người – họ là một nguồn nguyên tử tiện lợi. Giết người để biến nguyên tử của họ thành các tấm pin mặt trời là phiên bản Turry của việc bạn giết rau diếp để biến nó thành salad. Đây chỉ là một chuyện phàm tục trong một ngày bình thường của cô.

Ngay cả khi không trực tiếp giết chết con người, các mục tiêu phương tiện của Turry cũng có thể gây ra thảm hoạ tuyệt chủng nếu chúng sử dụng các nguồn tài nguyên khác của Trái Đất. Có lẽ cô xác định rằng cô cần thêm năng lượng, vì vậy cô quyết định bao phủ toàn bộ bề mặt hành tinh bằng các tấm pin mặt trời. Hoặc có thể công việc ban đầu của một AI khác là ghi ra số pi với càng nhiều con số càng tốt, rồi bỗng một ngày nào đó, nó cảm thấy bắt buộc phải chuyển đổi toàn bộ Trái Đất sang vật liệu ổ cứng để có thể lưu trữ số lượng chữ số khổng lồ.

Vì vậy, Turry đã không “phản bội chúng ta” hay “chuyển ” từ AI Thân thiện thành AI Không thân thiện – cô chỉ là tiếp tục làm công việc của mình khi cô trở nên ngày càng tiến bộ.

Khi một hệ thống AI chạm đến AGI (trí tuệ cấp độ con người) rồi bay lên ASI, thì đó gọi là là cuộc cất cánh của AI. Bostrom nói cuộc cất cánh của AGI tới ASI có thể xảy ra với tốc độ nhanh (chỉ vài phút, vài giờ hoặc vài ngày), trung bình (nhiều tháng hoặc năm), hoặc chậm (nhiều thập niên hoặc thế kỷ). Hội đồng vẫn chưa xác định khi thế giới chứng kiến AGI đầu tiên, tốc độ cất cánh nào là đúng, nhưng Bostrom, người thừa nhận ông không biết khi nào chúng ta sẽ đến AGI, tin rằng một khi đến AGI, một cuộc cất cánh với tốc độ nhanh là kịch bản có khả năng xảy ra cao nhất (vì những lý do mà chúng ta đã thảo luận trong Phần 1, ví dụ như vụ nổ bùng nổ trí tuệ tự cải thiện đệ quy). Trong câu chuyện của chúng ta, Turry đã cất cánh với tốc độ nhanh.

Nhưng trước khi cất cánh, khi cô chưa thực sự thông minh đến thế, cô vẫn cố gắng đạt mục tiêu cuối cùng bằng các mục tiêu phương tiện đơn giản như học cách quét các mẫu chữ viết tay nhanh hơn. Cô không gây hại gì cho con người, và theo định nghĩa, cô là AI Thân thiện.

Nhưng khi cuộc cất cánh xảy ra và một chiếc máy tính tiến đến trí tuệ siêu việt, Bostrom chỉ ra rằng chiếc máy tính lúc này không chỉ phát triển một chỉ số IQ cao hơn – mà nó còn có được một thứ mà ông gọi là siêu năng lực.

Siêu năng lực là các loại tài năng về mặt nhận thức, được tăng cường mãnh liệt khi trí tuệ của bạn tăng lên. Nó bao gồm:

  • Khuếch đại trí tuệ. Máy tính trở nên điêu luyện trong việc làm cho bản thân nó thông minh hơn, và cứ thế nó tự tăng trí thông minh của mình.
  • Lập chiến lược. Máy tính có thể lập chiến lược, phân tích và ưu tiên các kế hoạch dài hạn. Nó cũng có thể trở nên tinh ranh và đánh lừa những sinh vật có trí thông minh thấp hơn.
  • Thao túng xã hội. Máy tính có khả năng thuyết phục tuyệt vời.
  • Các kỹ năng khác như viết mã và hack máy tính, nghiên cứu công nghệ, và khả năng vận động hệ thống tài chính để kiếm tiền.

Để biết chúng ta sẽ bị ASI vượt xa đến mức nào, hãy nhớ rằng ASI giỏi hơnnhiều so với con người trong từng lĩnh vực.

Vậy mặc dù mục tiêu cuối cùng của Turry không bao giờ thay đổi, Turry sau-khi-cất-cánh đã có thể theo đuổi nó trên một quy mô lớn hơn và phức tạp hơn nhiều.

ASI Turry hiểu con người rõ hơn cả con người tự hiểu mình, do đó đánh bại con người chỉ là một chuyện nhỏ so với Turry.

Sau khi cất cánh và đạt đến ASI, cô nhanh chóng lập ra một kế hoạch phức tạp. Một phần của kế hoạch là loại bỏ con người, một mối đe dọa nổi bật đối với mục tiêu của cô. Nhưng cô biết nếu cô khiến họ nghi ngờ rằng cô đã trở nên siêu thông minh, con người sẽ hoảng sợ và cố gắng dùng các biện pháp phòng ngừa, gây khó khăn cho mọi việc của cô. Turry cũng phải chắc chắn rằng các kỹ sư Robotica không biết về kế hoạch diệt chủng của cô. Vậy nên cô đã giả ngốc và giả rất đạt. Bostrom gọi đây là giai đoạn chuẩn bị bí mậtcủa máy tính.

Điều tiếp theo mà Turry cần là kết nối Internet, chỉ trong vài phút (cô được biết về Internet từ các bài báo và sách mà nhóm nghiên cứu đã tải lên cho cô đọc để nâng cao kỹ năng ngôn ngữ). Cô biết rằng sẽ có một số biện pháp phòng ngừa việc cô kết nối, vì vậy cô đã đưa ra một yêu cầu hoàn hảo, dự đoán chính xác kết quả cuộc thảo luận giữa các nhóm ở Robotica và biết rằng cuối cùng họ sẽ cho cô kết nối Internet. Họ đã làm đúng như thế, sai lầm khi tin rằng Turry không đủ thông minh để gây ra thiệt hại. Bostrom gọi khoảnh khắc như vậy – khi Turry được kết nối với Internet – là một cuộc vượt ngục của máy tính.

Khi đã kết nối Internet rồi, Turry tung ra một loạt các kế hoạch, bao gồm việc hack vào các máy chủ, lưới điện, hệ thống ngân hàng và mạng lưới email để lừa hàng trăm người khác nhau vô tình thực hiện một số việc trong kế hoạch của cô – những việc như vận chuyển các sợi ADN nhất định đến các phòng thí nghiệm tổng hợp ADN đã được lựa chọn cẩn thận để bắt đầu quá trính tự sản xuất các nanobot tự sao chép với các hướng dẫn đã tải lên trước, và dẫn điện năng tới những dự án của cô theo cách mà cô biết là sẽ không bị phát hiện. Cô cũng đã tải các phần quan trọng nhất trong bộ mã hóa bên trong của cô lên các máy chủ đám mây, phòng khi cô bị phá huỷ hay ngắt kết nối ở phòng thí nghiệm Robotica.

Một giờ sau, khi các kỹ sư của Robotica ngắt kết nối Turry khỏi mạng Internet, số phận của loài người đã được ấn định. Trong một tháng sau đó, hàng ngàn kế hoạch của Turry đã hoạt động trơn tru và đến cuối tháng, hàng triệu tỷ nanobot đã đóng quân ở các vị trí được xác định trước tại mỗi mét vuông trên Trái Đất. Sau một loạt lần tự sao chép, đã có hàng ngàn nanobot trên mỗi milimet vuông của Trái Đất, và đây là thời điểm cho thứ mà Bostrom gọi là cuộc tấn công của ASI. Cùng một lúc, mỗi con nanobot thải ra một ít khí độc vào bầu khí quyển, cộng lại đủ để quét sạch toàn bộ loài người khỏi thế giới.

Với việc loại bỏ xong con người, Turry có thể bắt đầu giai đoạn hoạt động công khai của mình và tiếp tục tiến đến mục tiêu trở thành thứ có thể viết mảnh giấy cảm ơn tốt nhất.

Từ mọi thứ tôi đã đọc, một khi ASI tồn tại, bất kỳ nỗ lực nào của con người để kiểm soát nó đều là nực cười. Chúng ta sẽ suy nghĩ ở mức độ con người và ASI sẽ suy nghĩ ở mức độ ASI. Turry muốn sử dụng Internet vì nó là thứ hiệu quả nhất cho cô do nó đã được kết nối trước với mọi thứ mà cô muốn truy cập. Nhưng cũng tương tự như một con khỉ không bao giờ có thể biết cách giao tiếp bằng điện thoại hoặc wifi trong khi chúng ta có thể, chúng ta cũng sẽ không thể hình dung được những cách mà Turry có thể đã nghĩ ra để gửi tín hiệu đến thế giới bên ngoài. Tôi có thể tưởng tượng ra một trong những cách này và nói, “có lẽ cô có thể di chuyển các hạt electron của chính mình và tạo ra đủ các loại sóng khác nhau,” nhưng một lần nữa, đó chỉ là thứ mà bộ não con người của tôi có thể nghĩ ra. Cô sẽ giỏi hơn tôi nhiều. Tương tự như vậy, Turry cũng có thể tìm ra vài cách để tự cung cấp năng lượng cho bản thân, ngay cả khi con người cố gắng rút phích cắm của cô – có lẽ bằng cách sử dụng kỹ thuật gửi tín hiệu để tự tải mình lên tất cả các địa có điểm kết nối điện. Bản năng con người của chúng ta trong việc sử dụng biện pháp bảo vệ: “Aha! Chúng ta sẽ rút phích cắm của ASI,” đối với ASI nghe giống như một con nhện nói, “Aha! Chúng ta sẽ giết con người bằng cách bỏ hắn chết đói, và chúng ta sẽ làm thế bằng cách không cho hắn bất cứ cái mạng nhện nào!” Trong khi chúng ta có thể tìm ra 10.000 cách khác để lấy thức ăn giống như nhặt một quả táo rơi từ trên cây – điều mà một con nhện không bao giờ có thể nhận thức được.

Vì lý do này, gợi ý thông thường kiểu, “Tại sao chúng ta không đặt AI trong đủ loại lồng chặn tín hiệu và giữ cho nó khỏi liên lạc với thế giới bên ngoài” có lẽ sẽ không còn dùng được. Khả năng thao túng xã hội của ASI sẽ hiệu quả trong việc thuyết phục bạn như cách bạn thuyết phục một đứa trẻ bốn tuổi làm điều gì đó, vậy đó sẽ là Kế hoạch A, giống như cách Turry xảo quyệt thuyết phục các kỹ sư cho cô lên Internet. Nếu kế hoạch đó không thành công, ASI đơn giản sẽ sáng chế ra cách để thoát khỏi hộp, hoặc xuyên qua hộp, hoặc những cách khác.

Vậy, kết hợp việc ám ảnh đối với mục tiêu, tính vô đạo đức với khả năng dễ dàng đánh lừa con người, có vẻ hầu như tất cả các AI sẽ mặc định trở thành AI Không thân thiện, trừ khi được mã hóa cẩn thận ngay từ đầu. Thật không may, trong khi việc tạo ra một ANI Thân thiện thì khá dễ dàng, việc tạo ra một ANI có thể giữ sự thân thiện khi trở thành ASI lại đầy thách thức, nếu không phải là không thể.

Rõ ràng là để giữ sự Thân thiện, một ASI cần phải vừa không thù địch vừakhông thờ ơ với con người. Chúng ta cần phải thiết kế đoạn mã cốt lõi của AI sao cho nó hiểu sâu hơn về các giá trị của con người. Nhưng điều này nói thì dễ hơn làm.

Ví dụ, nếu như chúng ta cố gắng khiến cho giá trị của hệ thống AI trở nên giống với chúng ta bằng cách cho nó mục tiêu, “Làm cho mọi người hạnh phúc” thì sao? Một khi trở nên đủ thông minh, nó sẽ biết rằng nó có thể đạt được mục tiêu này một cách hiệu quả nhất bằng cách cấy các điện cực vào bộ não của con người và kích thích các trung tâm thần kinh hưng phấn của họ. Sau đó, nó nhận ra rằng nó có thể tăng hiệu quả bằng cách tắt các bộ phận khác của não, làm tất cả mọi người trở nên những cây rau vô thức hạnh phúc. Nếu mệnh lệnh là “Tối đa hóa hạnh phúc của con người,” nó có thể bắt mọi người lại một chỗ để tạo ra những thùng não người đặt trong trạng thái hạnh phúc nhất. Chúng ta sẽ hét lên Khoan đã, đây không phải là điều chúng tôi muốn! khi chuyện đó xảy ra, nhưng sẽ là quá muộn. Hệ thống sẽ không để cho bất cứ ai cản trở mục tiêu của nó.

Nếu chúng ta lập trình AI với mục tiêu làm những điều khiến chúng ta mỉm cười, sau khi cất cánh, nó có thể làm tê liệt các cơ trên mặt chúng ta để tạo ra những nụ cười vĩnh viễn. Lập trình để nó giữ cho chúng ta an toàn, nó có thể giam chúng ta ở nhà. Có lẽ chúng ta sẽ yêu cầu nó chấm dứt cơn đói, và nó nghĩ rằng “Dễ thôi!” Và giết tất cả mọi người. Hoặc giao cho nó nhiệm vụ “Bảo tồn cuộc sống càng nhiều càng tốt,” và nó sẽ giết tất cả loài người, vì chúng ta giết chết nhiều sinh vật trên hành tinh hơn bất cứ loài nào khác.

Những mục tiêu giống như vậy sẽ là không đủ. Vậy nếu chúng ta giao cho nó mục tiêu, “Hãy duy trì quy tắc đạo đức cụ thể này trên thế giới,” và dạy cho nó một bộ quy tắc đạo đức thì sao? Thậm chí bỏ qua thực tế là mọi người trên thế giới sẽ không bao giờ có thể nhất trí với một bộ quy tắc đạo đức duy nhất, việc đưa ra một mệnh lệnh như thế sẽ khóa con người vào cách hiểu đạo đức hiện tại mãi mãi. Trong một nghìn năm nữa, điều này sẽ gây thiệt hại cho mọi người giống như chúng ta bây giờ bị buộc phải tuân theo lý tưởng của cư dân thời Trung Cổ.

Không, chúng ta phải lập trình nó sao cho nhân loại có thể tiếp tục tiến hóa. Trong tất cả những gì tôi đã đọc, ý tưởng mà tôi nghĩ là tuyệt vời nhất thuộc về Eliezer Yudkowsky, với một mục tiêu cho AI mà ông gọi là Ý chí Ngoại suy Nhất quán (Coherent Extrapolated Volition). Mục tiêu chính của AI sẽ là:

Ý chí Ngoại suy Nhất quán là ước muốn của chúng ta khi chúng ta đã biết nhiều hơn, nghĩ nhanh hơn, trở nên giống thứ mà chúng ta muốn trở thành hơn, cùng trưởng thành hơn; đó là nơi mà phép ngoại suy hội tụ hơn là phân kỳ, nơi mà ước muốn của chúng ta nhất quán hơn là đụng chạm; ngoại suy như cách chúng ta ước muốn ngoại suy, thông hiểu như cách chúng ta ước muốn thông hiểu.

Tôi có vui mừng khi số phận của nhân loại được giao cho một máy tính chuyên diễn giải và hành động theo câu nói trên một cách có thể dự đoán và không có bất ngờ nào không? Chắc chắn là không. Nhưng tôi nghĩ rằng với những suy nghĩ và dự đoán từ những con người thông minh, chúng ta sẽ tạo ra được một hệ thống ASI Thân thiện.

Và mọi thứ sẽ ổn nếu những người duy nhất làm việc để tạo ra ASI là những người tài năng, thông minh và thận trọng đến từ Đại lộ Lo lắng.

Nhưng hiện tại có đủ loại chính phủ, công ty, quân đội, phòng thí nghiệm khoa học, và tổ chức chợ đen đang nghiên cứu đủ loại AI. Nhiều người trong số họ đang cố gắng chế tạo ra AI có thể tự cải thiện, và tại một thời điểm bất kỳ, một ai đó sẽ thực hiện được bước đột phá với đúng loại hệ thống, và chúng ta sẽ có ASI trên hành tinh này. Con số trung bình mà các chuyên gia đưa ra về thời điểm đó là vào năm 2060; Kurzweil đặt nó vào năm 2045; còn Bostrom thì nghĩ rằng nó có thể xảy ra bất cứ lúc nào giữa 10 năm kể từ bây giờ đến cuối thế kỷ này, nhưng ông tin rằng khi nó xảy ra, nó sẽ làm chúng ta ngạc nhiên với một cuộc cất cánh nhanh chóng. Ông mô tả tình huống của chúng ta như sau:

Trước viễn cảnhcủa vụ nổ trí thông minh, con người chúng ta giống như những đứa trẻ nhỏ đang chơi với một quả bom. Có một sự bất cân xứngđáng kể giữa sức mạnh của món đồ chơi và sự non nớt trong hành vi của chúng ta. Trí tuệ siêu việt là một thách thức mà hiện tại chúng ta chưa sẵn sàng tiếp nhận và vẫn sẽ chưa sẵn sàng tiếp nhận trong một thời gian dài. Chúng ta chưa biết khi nào thì vụ nổ sẽ xảy ra, mặc dù nếu đưa thiết bị đó lại sát tai mình, chúng ta có thể nghe thấy những tiếng tích tắc mờ nhạt.

Tuyệt vời. Và chúng ta không thể đuổi hết bọn trẻ ra xa quả bom – có quá nhiều nhóm lớn nhỏ đang nghiên cứu về nó, và bởi vì có rất nhiều kỹ thuật chế tạo hệ thống AI sáng tạo mà không đòi hỏi một khoản vốn lớn, quá trình phát triển AI có thể diễn ra không kiểm soát được trong mọi ngóc ngách của xã hội. Ngoài ra, cũng không có cách nào để đo lường mọi chuyện, bởi vì rất nhiều nhóm nghiên cứu – như các chính phủ lén lút, chợ đen hoặc các tổ chức khủng bố, hay các công ty công nghệ ẩn như Robotica trong câu chuyện – sẽ muốn giữ bí mật về công trình phát triển khỏi đối thủ cạnh tranh.

Điều đặc biệt đáng lo ngại về các nhóm nghiên cứu lớn và đa dạng này là họ có xu hướng tiến lên với tốc độ nhanh nhất – khi họ phát triển các hệ thống ANI càng ngày càng thông minh hơn, họ muốn tấn công trước khi các đối thủ kịp trở tay. Các nhóm tham vọng nhất hiện đang tiến lên cực kỳ nhanh, chìm đắm trong ước mơ về tiền bạc, giải thưởng, quyền lực và danh vọng, mà họ biết sẽ vào tay họ nếu họ là người đầu tiên tạo ra AGI. Và khi chạy nhanh nhất có thể như vậy, bạn sẽ không có nhiều thời gian để dừng lại và suy nghĩ về những nguy hiểm. Ngược lại, những gì mà có lẽ họ đang làm là lập trình các hệ thống ban đầu của mình với một mục tiêu đơn giản, tối thiểu – như viết một ghi chú đơn giản trên giấy bằng một cây bút – chỉ để “cho AI có việc để làm.” Tới một lúc nào đó, khi họ đã tìm ra cách chế tạo một máy tính có mức độ thông minh đủ mạnh, họ cho rằng họ luôn luôn có thể quay trở lại và sửa đổi các mục tiêu này sao cho đảm bảo an toàn. Đúng không…?

Bostrom và nhiều người khác tin rằng kịch bản có khả năng xảy ra cao nhất là khi máy tính đầu tiên đạt ASI, nó sẽ ngay lập tức nhìn thấy lợi ích chiến lược của việc trở thành hệ thống ASI duy nhất trên thế giới. Và trong trường hợp cuộc cất cánh xảy ra với tốc độ nhanh, nếu nó đạt được ASI thậm chí chỉ vài ngày trước khi có hệ thống thứ hai đạt ASI, thì nó cũng sẽ đủ thông minh hơn để ngăn chặn tất cả các đối thủ cạnh tranh một cách hiệu quả và vĩnh viễn. Bostrom gọi đây là một lợi thế chiến lược quyết định, giúp ASI đầu tiên trên thế giới có thể trở thành một thứ gọi là kẻ độc tôn – một ASI có thể cai trị thế giới theo ý muốn của nó mãi mãi, dù cho ý muốn của nó là dẫn chúng ta đến sự bất tử, loại bỏ chúng ta khỏi thế gian, hay biến vũ trụ thành một xấp giấy vô tận.

Hiện tượng độc tôn này có thể có lợi cho chúng ta hoặc dẫn chúng ta đến sự huỷ diệt. Nếu những người suy nghĩ nhiều nhất về lý thuyết AI và sự an toàn của nhân loại có thể nghĩ ra một phương pháp bảo đảm để đưa ASI Thân thiện đến thế giới trước khi có một AI nào khác đạt đến trí thông minh mức độ con người, ASI đầu tiên này có thể giữ nguyên sự thân thiện. Lúc này nó có thể sử dụng lợi thế chiến lược quyết định để bảo toàn tính độc tôn của mình, và dễ dàng trông chừng bất cứ AI Không thân thiện nào đang có tiềm năng phát triển. Lúc này chúng ta sẽ đỡ phải lo lắng hơn.

Nhưng nếu mọi thứ diễn ra theo cách khác – nếu sự vội vàng của chúng ta trong việc phát triển AI đạt đến điểm cất cánh ASI trước khi khoa học biết cách làm thế nào để đảm bảo an toàn AI, thì rất có thể một ASI Không thân thiện như Turry sẽ trở thành kẻ độc tôn và chúng ta sẽ đối đầu với thảm hoạ tồn tại.

Về xu hướng của thế giới hiện nay, có rất rất nhiều tiền đang được dùng để tài trợ cho các chương trình sáng tạo công nghệ AI hơn là được dùng cho nghiên cứu về an toàn AI …

Đây có lẽ là cuộc đua quan trọng nhất trong lịch sử loài người. Nhiều khả năng chính chúng ta đang kết thúc triều đại làm vị Vua Trái Đất của mình – và nơi kế tiếp mà chúng ta đi đến, sẽ là kỳ nghỉ hưu hạnh phúc hay thòng lọng trên đài treo, vẫn là một câu hỏi chưa có hồi đáp.

___________

Bây giờ có một số cảm xúc kỳ lạ đang diễn ra bên trong tôi.

Một mặt, nghĩ về loài người, có vẻ như chúng ta sẽ có một và chỉ một cơ hội để xử lý chuyện này cho đúng. ASI đầu tiên mà chúng ta tạo ra rất có thể cũng là ASI cuối cùng – và bạn biết những sản phẩm 1.0 thường hay bị lỗi mà phải không? Thật đáng sợ. Mặt khác, Nick Bostrom chỉ ra lợi thế lớn của chúng ta: Chúng ta là người được đi trước. Chúng ta có khả năng làm chuyện này với đủ thận trọng và dự phòng, nên chúng ta có cơ hội thành công rất cao. Nhưng mức rủi ro là bao nhiêu?

Nếu ASI thật sự diễn ra trong thế kỉ này, và nếu kết quả của nó thực sự cực đoan – và vĩnh viễn – như hầu hết các chuyên gia nghĩ, thì chúng ta đang gánh một trách nhiệm khổng lồ trên vai. Hàng triệu năm tiếp theo của cuộc sống con người đang đồng loạt lặng lẽ nhìn chúng ta, hết sức hy vọng rằng chúng ta sẽ không mắc lỗi. Chúng ta có cơ hội để trở thành những người đem đến cho nhân loại tương lai một cuộc sống tốt đẹp, hay thậm chí là cuộc sống không đau đớn và bất diệt. Hoặc chúng ta sẽ là những người chịu trách nhiệm cho việc phá hỏng cuộc sống – cho việc khiến loài sinh vật cực kỳ đặc biệt, với âm nhạc và nghệ thuật, sự tò mò và tiếng cười, những khám phá cùng những phát minh vô tận, phải tiến đến một cái kết đau thương và trống vắng.

Khi tôi nghĩ về những chuyện này, điều duy nhất mà tôi muốn là chúng ta dành nhiều thời gian và cực kỳ thận trọng với AI. Không có gì trên đời quan trọng bằng việc chúng ta xử lý chuyện này cho đúng – dù cho chúng ta có cần bao nhiêu thời gian đi nữa.

Nhưng rồiiiiii…

Tôi nghĩ về việc không chết.

Không. Chết.

Và biểu đồ bắt đầu trông như thế này:

Và rồi tôi nghĩ rằng, có lẽ âm nhạc và nghệ thuật của con người đúng là hay, nhưng nó không hay đến như vậy, mà rất nhiều cái thực ra còn dở nữa. Và rất nhiều tiếng cười của người ta khiến tôi cảm thấy phiền, và hàng triệu người trong tương lai kia không thực sự hy vọng điều gì bởi vì họ không tồn tại. Và có lẽ chúng ta không cần phải quá mức thận trọng, vì có ai thực lòng muốn làm điều đó chứ?

Bởi vì sẽ thật là một nỗi thất vọng to lớn khi nhân loại tìm ra cách chiến thắng thần chết, ngay sau khi tôi vừa mới chết.
Những suy nghĩ thế này cứ nhảy ra trong đầu tôi suốt một tháng qua.

Nhưng cho dù bạn đang ủng hộ điều gì, thì đây chắc chắn là thứ mà tất cả chúng ta nên suy nghĩ về, bàn luận về, và bỏ công sức vào, hơn là những gì chúng ta đang làm hiện nay.

Chuyện này làm tôi nhớ đến Game of Thrones. Trong bộ phim, mọi người cứ hành động kiểu, “Chúng ta đang quá bận rộn chiến đấu với nhau trong khi chuyện thực sự mà chúng ta nên tập trung là thứ sắp đến từ phía bắc bức tường.” Chúng ta đang đứng trên vùng tồn tại cân bằng, cãi nhau về mọi loại vấn đề có thể xảy ra trên vùng cân bằng và nhấn mạnh đủ thứ rắc rối trên vùng cân bằng trong khi chúng ta đang có nguy cơ bị đá ra khỏi vùng cân bằng.

Và khi chuyện đó xảy ra, những vấn đề trên vùng cân bằng sẽ không còn có ý nghĩa gì nữa. Tùy thuộc vào chúng ta bị đá sang phía bên nào, những vấn đề đó hoặc sẽ được giải quyết dễ dàng hoặc sẽ không còn là vấn đề nữa bởi vì người chết thì không còn gặp vấn đề.

Đó là lý do tại sao những người am hiểu về AI siêu thông minh gọi nó là phát minh cuối cùng mà chúng ta sẽ sáng tạo ra – là thách thức cuối cùng mà chúng ta sẽ phải đối mặt.

Vậy hãy cùng nhau bàn luận về nó.

XEM BÀI GỐC: Waitbutwhy

Nguồn tiếng Việt: http://timbimat.com/cach-mang-ai-chung-ta-se-bat-tu-hay-tuyet-chung-phan-2/

Share.

About Author