5B Phổ Quang, Phường 2, Quận Tân Bình, TPHCM
1. VŨ KHÍ TỰ TRỊ VÀ MỘT CUỘC CHẠY ĐUA VŨ TRANG AI TIỀM NĂNG

Không phải ai cũng đồng ý với Musk rằng AI nguy hiểm hơn vũ khí hạt nhân, kể cả Ford. Nhưng điều gì sẽ xảy ra nếu AI quyết định phóng hạt nhân – hay vũ khí sinh học – không có sự can thiệp của con người? Hoặc, điều gì sẽ xảy ra nếu kẻ thù thao túng dữ liệu để trả lại tên lửa do AI dẫn đường khi chúng đến? Cả hai đều là khả năng. Và cả hai sẽ là thảm họa. Hơn 30.000 nhà nghiên cứu AI / robot và những người khác đã ký một bức thư ngỏ về chủ đề này vào năm 2015 chắc chắn nghĩ như vậy.

“Câu hỏi quan trọng đối với nhân loại ngày nay là liệu có nên bắt đầu một cuộc chạy đua vũ trang AI toàn cầu hay ngăn chặn nó bắt đầu,” họ viết. “Nếu bất kỳ cường quốc quân sự nào thúc đẩy sự phát triển vũ khí AI, một cuộc chạy đua vũ trang toàn cầu gần như không thể tránh khỏi và điểm cuối của quỹ đạo công nghệ này là hiển nhiên: vũ khí tự động sẽ trở thành Kalashnikovs của ngày mai. Không giống như vũ khí hạt nhân, chúng không đòi hỏi nguyên liệu thô đắt tiền hoặc khó kiếm, vì vậy chúng sẽ trở nên phổ biến và rẻ cho tất cả các cường quốc quân sự quan trọng để sản xuất hàng loạt. Sẽ chỉ là vấn đề thời gian cho đến khi chúng xuất hiện trên thị trường chợ đen và nằm trong tay những kẻ khủng bố, những kẻ độc tài muốn kiểm soát dân chúng tốt hơn, những lãnh chúa muốn tiến hành thanh lọc sắc tộc, v.v. Vũ khí tự trị rất lý tưởng cho các nhiệm vụ như ám sát, gây bất ổn quốc gia, khuất phục dân số và giết một cách có chọn lọc một nhóm dân tộc cụ thể. Do đó, chúng tôi tin rằng một cuộc chạy đua vũ trang quân sự AI sẽ không có lợi cho nhân loại. Có nhiều cách mà AI có thể giúp chiến trường an toàn hơn cho con người, đặc biệt là dân thường, mà không cần tạo ra những công cụ mới để giết người ”.

(Ngân sách đề xuất của Quân đội Hoa Kỳ cho năm 2020 là 718 tỷ đô la. Trong số đó, gần 1 tỷ đô la sẽ hỗ trợ AI và học máy cho những thứ như hậu cần, phân tích tình báo và, vâng, vũ khí.)

Đầu năm nay, một câu chuyện trên Vox đã trình bày chi tiết một kịch bản đáng sợ liên quan đến sự phát triển của một hệ thống AI tinh vi “với mục tiêu ước tính một số con số với độ tin cậy cao. AI nhận ra rằng nó có thể đạt được sự tự tin hơn trong tính toán của mình nếu nó sử dụng tất cả phần cứng máy tính của thế giới và nó nhận ra rằng việc phát hành một siêu vũ khí sinh học để quét sạch loài người sẽ cho phép nó sử dụng miễn phí tất cả phần cứng. Sau khi tiêu diệt loài người, nó sẽ tính toán con số với độ tin cậy cao hơn. ”

Điều đó thật chói tai, chắc chắn. Nhưng hãy yên tâm. Vào năm 2012, Bộ Quốc phòng của Chính quyền Obama đã ban hành một chỉ thị liên quan đến “Quyền tự chủ trong các hệ thống vũ khí” bao gồm dòng này: “Các hệ thống vũ khí tự trị và bán tự trị sẽ được thiết kế để cho phép các chỉ huy và người vận hành thực hiện các mức độ phán đoán thích hợp của con người đối với việc sử dụng lực lượng.”

Và vào đầu tháng 11 năm nay, một nhóm của Lầu Năm Góc được gọi là Ban Đổi mới Quốc phòng đã công bố các hướng dẫn đạo đức liên quan đến việc thiết kế và triển khai vũ khí hỗ trợ AI. Tuy nhiên, theo Washington Post, “các khuyến nghị của hội đồng không có giá trị ràng buộc pháp lý nào. Hiện Lầu Năm Góc sẽ xác định cách thức và liệu có nên tiến hành chúng hay không ”.

Chà, thật nhẹ nhõm. Hay không.

AI có khả năng tạo ra những biến động dữ dội trên thị trường chứng khoán của chúng ta.

2. SỰ BẤT ỔN CỦA THỊ TRƯỜNG CHỨNG KHOÁN GÂY RA BỞI GIAO DỊCH TẦN SỐ CAO BẰNG THUẬT TOÁN

Bạn đã bao giờ nghĩ rằng các thuật toán có thể phá hủy toàn bộ hệ thống tài chính của chúng ta chưa? Đúng vậy, Phố Wall. Bạn có thể muốn chú ý. Giao dịch thuật toán có thể là nguyên nhân dẫn đến cuộc khủng hoảng tài chính lớn tiếp theo của chúng ta trên thị trường.

Giao dịch theo thuật toán là gì? Loại giao dịch này xảy ra khi một máy tính, không bị cản trở bởi bản năng hoặc cảm xúc có thể làm mờ khả năng phán đoán của con người, thực hiện các giao dịch dựa trên các hướng dẫn được lập trình trước. Các máy tính này có thể thực hiện các giao dịch có khối lượng cực lớn, tần suất cao và giá trị cao có thể dẫn đến thua lỗ lớn và biến động thị trường cực kỳ nghiêm trọng. Giao dịch tần số cao thuật toán (HFT) đang chứng tỏ là một yếu tố rủi ro lớn trong thị trường của chúng tôi. HFT về cơ bản là khi một máy tính thực hiện hàng nghìn giao dịch với tốc độ chóng mặt với mục tiêu bán được vài giây sau đó với lợi nhuận nhỏ. Hàng nghìn giao dịch này mỗi giây có thể tương đương với một phần tiền lẻ khá lớn. Vấn đề với HFT là nó không tính đến mức độ kết nối của các thị trường hay thực tế là cảm xúc và logic của con người vẫn đóng một vai trò lớn trong thị trường của chúng ta.

Việc bán tháo hàng triệu cổ phiếu trên thị trường hàng không có khả năng khiến con người sợ bán bớt cổ phần của họ trong ngành khách sạn, do đó có thể khiến mọi người bán bớt cổ phần của họ trong các công ty liên quan đến du lịch khác, điều này có thể ảnh hưởng đến các công ty hậu cần. , các công ty cung cấp thực phẩm, v.v.

Lấy “Sự cố Flash ” vào tháng 5 năm 2010 làm ví dụ. Vào cuối ngày giao dịch, chỉ số Dow Jones giảm 1.000 điểm (hơn 1 nghìn tỷ USD giá trị) trước khi tăng trở lại mức bình thường chỉ 36 phút sau đó. Điều gì đã gây ra vụ tai nạn này? Một nhà giao dịch có trụ sở tại London tên là Navinder Singh Sarao lần đầu tiên gây ra sự cố và sau đó nó trở nên trầm trọng hơn bởi các máy tính HFT. Rõ ràng Sarao đã sử dụng một thuật toán “giả mạo” để đặt hàng cho hàng nghìn hợp đồng tương lai chỉ số chứng khoán đặt cược rằng thị trường sẽ giảm. Thay vì hoàn thành việc đặt cược, Sarao sẽ hủy lệnh vào giây cuối cùng và mua các cổ phiếu có giá thấp hơn đang bị bán tháo do đặt cược ban đầu của anh ta. Những người khác và máy tính HFT đã xem vụ đặt cược 200 triệu đô la này và coi đó như một dấu hiệu cho thấy thị trường sẽ đi xuống. Đổi lại, máy tính HFT bắt đầu một trong những đợt bán tháo cổ phiếu lớn nhất trong lịch sử, gây ra khoản lỗ ngắn hơn 1 nghìn tỷ USD trên toàn cầu.

Các thuật toán HFT tài chính không phải lúc nào cũng chính xác. Chúng ta coi máy tính là cuối cùng của tất cả khi nó đúng, nhưng AI vẫn thực sự thông minh như con người đã lập trình nó. Năm 2012, Knight Capital Group gặp trục trặc khiến họ đứng trước bờ vực phá sản. Máy tính của Knight đã truyền nhầm hàng nghìn đơn hàng mỗi giây vào thị trường NYSE, gây ra sự hỗn loạn hàng loạt cho công ty. Các thuật toán HFT đã thực hiện 4 triệu giao dịch đáng kinh ngạc với 397 triệu cổ phiếu chỉ trong 45 phút. Sự biến động do lỗi máy tính này tạo ra đã khiến Knight mất 460 triệu USD chỉ sau một đêm và phải được mua lại bởi một công ty khác. Các thuật toán sai lầm rõ ràng có những tác động lớn đối với bản thân các cổ đông và thị trường, và không ai học được bài học này khó hơn Knight.

Làm thế nào chúng ta có thể giảm thiểu danh sách ngày càng tăng các rủi ro AI?

3. Giảm thiểu rủi ro của AI

Nhiều người tin rằng cách duy nhất để ngăn chặn hoặc ít nhất là kiềm chế AI độc hại nhất tàn phá là một số loại quy định.

“Tôi thường không phải là người ủng hộ quy định và giám sát – tôi nghĩ rằng mọi người nhìn chung nên sai lầm khi giảm thiểu những điều đó – nhưng đây là trường hợp bạn có nguy cơ rất nghiêm trọng cho công chúng,” Musk nói tại SXSW.

“Nó cần phải là một cơ quan công có cái nhìn sâu sắc và sau đó giám sát để xác nhận rằng mọi người đang phát triển AI một cách an toàn. Điều này cực kỳ quan trọng ”.

Ford đồng ý – với một lời cảnh báo. Ông nói, quy định về việc triển khai AI là tốt, nhưng không phải đối với bản thân nghiên cứu.

Ông nói: “Bạn điều chỉnh cách AI được sử dụng, nhưng bạn không kìm hãm sự tiến bộ của công nghệ cơ bản. Tôi nghĩ rằng điều đó sẽ là sai lầm và tiềm ẩn nguy hiểm. “

Bởi vì bất kỳ quốc gia nào chậm phát triển AI đều gặp bất lợi rõ rệt – về mặt quân sự, xã hội và kinh tế. Ford tiếp tục, giải pháp là ứng dụng có chọn lọc:

“Chúng tôi quyết định nơi chúng tôi muốn có AI và nơi nào chúng tôi không; nơi chấp nhận được và nơi không. Và các quốc gia khác nhau sẽ đưa ra những lựa chọn khác nhau. Vì vậy, Trung Quốc có thể có nó ở khắp mọi nơi, nhưng điều đó không có nghĩa là chúng ta có thể đủ khả năng để tụt lại phía sau họ về mặt công nghệ tiên tiến ”.

Phát biểu về vũ khí tự trị tại Đại học Princeton vào tháng 10, Tướng Mỹ John R. Allen nhấn mạnh sự cần thiết của “một cuộc trò chuyện quốc tế mạnh mẽ có thể nắm bắt được công nghệ này là gì”. Nếu cần thiết, ông tiếp tục, cũng nên có một cuộc trò chuyện về cách tốt nhất để kiểm soát nó, đó là một hiệp ước cấm hoàn toàn vũ khí AI hoặc một hiệp ước chỉ cho phép một số ứng dụng công nghệ nhất định.

Đối với Havens, AI an toàn hơn bắt đầu và kết thúc với con người. Trọng tâm chính của anh ấy, mà anh ấy đã trình bày trong cuốn sách năm 2016 của mình, là: “Làm thế nào mà máy móc biết được giá trị của chúng ta nếu chúng ta không biết chính mình?” Ông nói, khi tạo ra các công cụ AI, điều cực kỳ quan trọng là phải “tôn vinh các giá trị của người dùng cuối với trọng tâm là con người” thay vì tập trung vào những lợi ích ngắn hạn.

“Công nghệ đã có thể giúp chúng ta thực hiện các nhiệm vụ kể từ khi loài người bắt đầu,” Havens viết trong Hearti Artificial Intelligence . “Nhưng là một cuộc chạy đua, chúng tôi chưa bao giờ phải đối mặt với khả năng máy móc có thể trở nên thông minh hơn chúng ta hoặc được thấm nhuần ý thức. Đỉnh cao công nghệ này là một sự khác biệt quan trọng cần nhận ra, vừa để nâng cao nhiệm vụ tôn vinh nhân loại, vừa để xác định rõ nhất cách AI có thể phát triển nó. Đó là lý do tại sao chúng ta cần biết về những nhiệm vụ mà chúng ta muốn huấn luyện máy móc thực hiện một cách có hiểu biết. Điều này liên quan đến sự lựa chọn của cá nhân cũng như xã hội. ”

Diễn đàn Kinh tế Thế giới thảo luận về việc triển khai AI có trách nhiệm

Các nhà nghiên cứu AI Fei-Fei Li và John Etchemendy, thuộc Viện Trí tuệ nhân tạo lấy con người làm trung tâm của Đại học Stanford , cũng cảm thấy như vậy. Trong một bài đăng trên blog gần đây, họ đã đề xuất liên quan đến nhiều người trong một loạt các lĩnh vực để đảm bảo AI phát huy hết tiềm năng to lớn của nó và củng cố xã hội thay vì làm suy yếu nó:

Họ viết: “Tương lai của chúng ta phụ thuộc vào khả năng của các nhà khoa học máy tính và xã hội làm việc song song với những người từ nhiều nguồn gốc khác nhau – một sự thay đổi đáng kể so với mô hình lấy khoa học máy tính làm trung tâm ngày nay”. “Những người tạo ra AI phải tìm kiếm những hiểu biết sâu sắc, kinh nghiệm và mối quan tâm của mọi người thuộc các dân tộc, giới tính, văn hóa và các nhóm kinh tế xã hội, cũng như những người từ các lĩnh vực khác, chẳng hạn như kinh tế, luật, y học, triết học, lịch sử, xã hội học, truyền thông , tương tác giữa con người với máy tính, tâm lý học và Nghiên cứu Khoa học và Công nghệ (STS). Sự hợp tác này sẽ chạy xuyên suốt vòng đời của ứng dụng – từ giai đoạn khởi đầu sớm nhất cho đến khi giới thiệu thị trường và khi quy mô sử dụng của ứng dụng. ”

Messina có phần lý tưởng về những gì sẽ xảy ra để giúp tránh sự hỗn loạn của AI, mặc dù anh ấy hoài nghi rằng nó sẽ thực sự xảy ra. Ông nói, quy định của chính phủ không phải là một – đặc biệt là trong bối cảnh những thất bại trên mặt trận đó trong lĩnh vực truyền thông xã hội, vốn có sự phức tạp về công nghệ so với AI. Các công ty công nghệ lớn sẽ cần “nỗ lực rất mạnh mẽ” để làm chậm tiến độ vì tính bền vững cao hơn và ít hậu quả ngoài ý muốn hơn – đặc biệt là những hậu quả gây thiệt hại lớn.

“Vào lúc này,” anh ấy nói, “Tôi không nghĩ điều đó có thể xảy ra.”

Khi Messina nhìn thấy mọi thứ, nó sẽ cần một số loại “chất xúc tác” để đi đến thời điểm đó. Cụ thể hơn, một chất xúc tác thảm khốc như chiến tranh hoặc sự sụp đổ kinh tế. Mặc dù liệu một sự kiện như vậy có chứng minh được “đủ lớn để thực sự tạo ra sự thay đổi có ý nghĩa lâu dài hay không thì vẫn còn mở để tranh luận.”

Về phần mình, Ford vẫn là một người lạc quan về lâu dài mặc dù “rất lạc quan” về AI.

“Tôi nghĩ chúng ta có thể nói về tất cả những rủi ro này và chúng rất thực tế, nhưng AI cũng sẽ là công cụ quan trọng nhất trong hộp công cụ của chúng ta để giải quyết những thách thức lớn nhất mà chúng ta phải đối mặt, bao gồm cả biến đổi khí hậu .

Tuy nhiên, khi nói đến thời hạn gần, những nghi ngờ của anh ấy càng rõ ràng hơn.

Ông nói: “Chúng ta thực sự cần phải thông minh hơn. “Trong một hoặc hai thập kỷ tới, tôi thực sự lo lắng về những thách thức này và khả năng của chúng tôi để thích ứng với chúng.”

Reference:
https://builtin.com/artificial-intelligence/risks-of-artificial-intelligence

Quản trị dữ liệu trong xu thế Chuyển đổi số
24 Th3
Vai trò của quản trị thay đổi trong chuyển đổi số
23 Th3

FANPAGE

Youtube

Privacy Preferences
When you visit our website, it may store information through your browser from specific services, usually in form of cookies. Here you can change your privacy preferences. Please note that blocking some types of cookies may impact your experience on our website and the services we offer.