Download as docx, pdf, or txt
Download as docx, pdf, or txt
You are on page 1of 9

2.

Đạo đức, chiến lược và luật AI của Trung Quốc so với EU và Mỹ từ năm 2020 đến
nay

2.1 EU

2.1.1 Đạo đức AI của Trung Quốc so với EU

Cách tiếp cận của EU trong việc phát triển AI khác với cách tiếp cận của Trung Quốc,
trước hết tập trung vào việc khai thác sức mạnh, thiết lập quy định và quy chuẩn của
mình để xác định ranh giới rõ ràng cho việc phát triển và sử dụng AI được chấp nhận
về mặt đạo đức ( Csernatoni 2019a). Điều này ban đầu được nêu trong thông báo, trong
đó nhấn mạnh rằng AI cần được phát triển phù hợp với các giá trị của EU và đã được
HLEG(High-level expert group) làm rõ thêm. Nguyên tắc đạo đức của HLEG và danh
sách đánh giá liên quan cung cấp sự rõ ràng cho những người thực hành về cách họ có
thể điều chỉnh hệ thống của mình phù hợp với các giá trị Châu Âu (Trích dẫn của Ủy
ban Châu Âu 2020). Hướng dẫn này sẽ được củng cố thông qua các quy định pháp lý
của dự thảo đạo luật AI, trong đó nêu rõ ràng các mức độ rủi ro mà các công nghệ AI
khác nhau gây ra và sẽ đặt ra các hạn chế đối với từng cấp độ tương ứng khi đạo luật
này được thông qua.
2.1.2 Chiến lươc AI của Trung Quốc so với EU

Mặc dù các chiến lược AI của EU và Trung Quốc xuất hiện vào những thời điểm tương
tự nhau, nhưng có sự khác biệt chính trong cách bố trí đã thúc đẩy các chính phủ đi
theo những quỹ đạo khác nhau. Tại EU, các cuộc thảo luận chính sách về quản trị AI
phần lớn được thúc đẩy bởi việc áp dụng rộng rãi AI và mong muốn kiểm soát các tác
động có hại của việc sử dụng (Cath và cộng sự 2018). Ngược lại, các cuộc thảo luận
chính sách ở Trung Quốc chủ yếu xuất hiện sau “Khoảnh khắc Sputnik” về chiến thắng
năm 2016 và 2017 của AlphaGo trước các nhà vô địch cờ vây, Lee Sedol và Ke Jie,
điều đó nhấn mạnh tiềm năng của AI (Lee 2018). Theo nghĩa này, chiến lược của
Trung Quốc chủ yếu được khơi dậy bởi nỗ lực nắm bắt tiềm năng mà AI mang lại.
Trong những năm sau đó, EU đã nhấn mạnh rõ ràng vào việc giảm thiểu tác hại, trong
khi chính sách và diễn ngôn của Trung Quốc chủ yếu ủng hộ cách tiếp cận đổi mới là
trên hết (Duan 2020; Zeng 2020). Có những dấu hiệu cho thấy sự khác biệt này hiện
đang bắt đầu mờ nhạt. Chính phủ Trung Quốc đã bắt đầu chú trọng nhiều hơn đến các
biện pháp chính sách “thịnh vượng chung” nhằm tìm cách khẳng định quyền kiểm soát
chính trị lớn hơn đối với các công ty và giảm thiểu tác hại cho xã hội, thường gây tổn
hại cho sự đổi mới (Sun 2022). Tại EU, một số nhà bình luận đã lập luận rằng đạo luật
AI được xây dựng theo hướng thúc đẩy đổi mới hơn là bảo vệ quyền lợi (Del Castillo
2021). Mặc dù tuyên bố này còn đáng nghi ngờ nhưng sự thật là các yếu tố tập trung
vào đổi mới của đạo luật AI chẳng hạn như hộp cát điều tiết đã trở thành trung tâm của
các cuộc tranh luận ở Châu Âu (Trích dẫn của Bertuzzi 2022).
Loại cạnh tranh chính trị được nêu trong các tài liệu chính sách AI tương ứng là một
điểm khác mà hai cách tiếp cận này khác nhau. Mục tiêu của AIDP(Artificial
Intelligence Development Plan) bao gồm lĩnh vực khoa học và công nghệ, giữ chân
nhân tài, các tiêu chuẩn và quy định cũng như những lợi ích quân sự mà AI có thể
mang lại. Điểm cuối cùng này phải được làm nổi bật. Người ta nhấn mạnh rằng “Trung
Quốc phải nắm bắt sáng kiến chiến lược trong giai đoạn mới của cạnh tranh quốc tế về
AI để bảo vệ an ninh quốc gia một cách hiệu quả”. AI được coi là thứ có thể mang lại
cho Trung Quốc những lợi thế cạnh tranh mới trong lĩnh vực quốc phòng thông qua
việc thực hiện “những bước phát triển nhảy vọt”. Mặc dù không được nêu rõ ràng
trong AIDP, nhưng đây có thể là phản ứng trước quyền bá chủ được nhận thức của Hoa
Kỳ và là sự phát triển tự nhiên trong chiến lược quân sự của Trung Quốc trong những
năm 1990 và đầu những năm 2000, với đặc điểm là phát triển các năng lực bất đối
xứng nhằm vào các điểm yếu của Mỹ (Kania 2017). Điều này trái ngược với chiến lược
của EU, nơi khả năng cạnh tranh được vạch ra rõ ràng về mặt đầu tư, phát triển và sử
dụng. Mục đích phát triển AI để phòng thủ phần lớn không có trong chiến lược của EU
và trên thực tế bị loại trừ rõ ràng khỏi Sách trắng AI, với việc Ủy ban tập trung nhiều
hơn vào việc thúc đẩy đối thoại quốc tế (Trích dẫn của Ủy ban Châu Âu2018). Tương
tự như vậy, Nghị viện gợi ý rằng EU nên tập trung vào hợp tác và đóng vai trò dẫn đầu
trong việc phát triển khuôn khổ quản trị quốc tế cho việc sử dụng AI cho mục đích
quân sự (Trích dẫn của Nghị viện Châu Âu năm 2020).
Sự khác biệt này có vẻ rõ ràng. Mục tiêu của Trung Quốc và sự phát triển thực tế trong
việc sử dụng AI cho quân sự ( Pecotic 2019), có thể được coi là bất lợi cho việc thúc
đẩy sự ổn định, niềm tin và triển khai an toàn các hệ thống AI ( Scharre 2019; Taddeo
và Floridi 2018), trong khi chiến lược của EU có thể là được coi là một nỗ lực chủ
động nhằm thúc đẩy hợp tác. Tuy nhiên, việc phân tích như vậy sẽ quá đơn giản. Quỹ
Quốc phòng Châu Âu của EU đã dành từ 4% đến 8% ngân sách giai đoạn 2021-2027
để giải quyết các công nghệ quốc phòng mang tính đột phá và đổi mới có rủi ro cao
( Csernatoni 2019b), và các quốc gia thành viên riêng lẻ như Pháp đã vạch ra ý định
phát triển công nghệ AI quân sự (Trích dẫn của Franke và Sartori 2019). Những nỗ lực
cũng bắt đầu xuất hiện nhằm thiết lập sự hợp tác với NATO về việc sử dụng khả năng
AI cho mục đích phòng thủ (NATO Citation 2020).
Khi xem xét cách tiếp cận của EU đối với AI để phòng thủ , người ta có thể lập luận
rằng nó xuất phát từ thực tế chính trị của việc trở thành một tổ chức liên chính phủ/siêu
quốc gia, cũng như từ bất kỳ sự dè dặt về ý thức hệ nào (Kagan Cites2007). Điều đó có
nghĩa là, cách tiếp cận của EU đối với việc sử dụng AI cho mục đích quốc phòng ,
hoặc thiếu nó, phần lớn cho phép các quốc gia thành viên tự do theo đuổi công nghệ
trong lĩnh vực này. Tương tự, có những sự dè dặt được ghi chép rõ ràng trong số các
quan chức Trung Quốc về tiềm năng phát triển AI cho mục đích quốc phòng có thể làm
leo thang xung đột (Allen Citation 2019), mặc dù những lo ngại này nhìn chung đã
được lấn át bởi nỗi lo sợ rằng những tiến bộ AI bất đối xứng của quân đội Hoa Kỳ có
thể dẫn đến tình trạng leo thang xung đột. tính dễ bị tổn thương tăng cao ( Fedasiuk
2020). Do đó, khả năng và nhận thức về mối đe dọa cũng cần được coi là yếu tố cơ bản
tạo nên sự khác biệt giữa cách tiếp cận của Trung Quốc và EU đối với AI cho quốc
phòng.

Những khác biệt này liên quan đến mục tiêu mà mỗi chính phủ hướng tới tạo ra những
điểm khác biệt quan trọng giữa các chiến lược AI quốc gia của Trung Quốc và EU.
Tuy nhiên, chỉ thông qua việc xem xét quản trị AI ở cấp độ chi tiết hơn, đặc biệt là liên
quan đến cách các chính phủ tương ứng thực hiện mục tiêu của họ và những chính sách
này nhằm mang lại lợi ích cho ai, thì sự khác biệt đáng kể trong cách tiếp cận mới trở
nên rõ ràng.
2.1.3 Luật AI của Trung Quốc so với EU

*Sự giống nhau:


- Quy định về AI: Cả EU và Trung Quốc đều đã thực hiện các quy định về AI. Cả hai
bên đều nhận thức được tầm quan trọng của việc có một khung pháp lý để đảm bảo an
toàn và quyền lợi của người dân và doanh nghiệp.
- Tính minh bạch và trách nhiệm giải trình: Cả EU và Trung Quốc đều nhấn mạnh tính
minh bạch và trách nhiệm giải trình trong việc áp dụng các hệ thống AI có rủi ro cao.
Cả hai bên đều yêu cầu các hệ thống AI cung cấp thông tin rõ ràng và có giám sát con
người để giảm thiểu rủi ro.
*Sự khác nhau:
- Phạm vi và tiếp cận: EU áp dụng một phạm vi pháp lý toàn diện cho AI, trong khi
Trung Quốc tập trung vào các quy định cụ thể cho một số ứng dụng AI cụ thể. EU đề
xuất một đạo luật trí tuệ nhân tạo rộng lớn, trong khi Trung Quốc ban hành các quy
định quản lý dịch vụ AI cụ thể và thuật toán đề xuất.
- Tiêu chí định nghĩa rủi ro: EU phân loại các hệ thống AI dựa trên mức độ rủi ro, từ
rủi ro không thể chấp nhận được đến rủi ro tối thiểu. Trong khi đó, Trung Quốc không
có hệ thống phân loại rủi ro tương tự.
- Quản lý thông tin và tác động xã hội: Trung Quốc tập trung vào kiểm soát thông tin
và ảnh hưởng của AI và thuật toán đối với nội dung trực tuyến. Trong khi đó, EU
không có quy định tương tự và tập trung hơn vào bảo vệ quyền riêng tư và quản trị dữ
liệu cá nhân.
- Mục tiêu và lãnh đạo AI: Trung Quốc đặt mục tiêu trở thành quốc gia dẫn đầu toàn
cầu về phát triển và ứng dụng AI. Trung Quốc đã đề ra kế hoạch phát triển AI thế hệ
mới vào năm 2017 với mục tiêu dẫn đầu AI toàn cầu vào năm 2030. Trong khi đó, EU
không có mục tiêu tương tự và tập trung hơn vào việc tạo ra một khung pháp lý bảo vệ
quyền lợi của người dân và doanh nghiệp.
2.2 Mỹ

2.2.1 Đạo đức AI của Trung Quốc so với Mỹ

- Trung Quốc: Cách tiếp cận của Trung Quốc đối với đạo đức AI có xu hướng nhấn
mạnh đến những cân nhắc thực tế và lợi ích xã hội của AI. Chính phủ Trung Quốc đã
ban hành các hướng dẫn và nguyên tắc để phát triển và sử dụng AI một cách có đạo
đức, tập trung vào việc thúc đẩy sự công bằng, minh bạch và trách nhiệm giải trình.
Tuy nhiên, mối lo ngại đã được đặt ra về các vấn đề như giám sát và quyền riêng tư
trong các ứng dụng AI của Trung Quốc.
- Mỹ: Cách tiếp cận của Mỹ đối với đạo đức AI dựa trên nguyên tắc hơn, nhấn mạnh
đến quyền cá nhân, quyền riêng tư và tránh thành kiến và phân biệt đối xử. Chính phủ
Mỹ, cùng với các nhà lãnh đạo ngành và các tổ chức học thuật, đã tích cực tham gia
vào các cuộc thảo luận và sáng kiến nhằm giải quyết các thách thức đạo đức liên quan
đến AI, chẳng hạn như phát triển các nguyên tắc và hướng dẫn đạo đức về AI.

Mức độ quy định: Trung Quốc có quy định ít hơn về AI so với Mỹ. Mỹ có quy định
chặt chẽ hơn về AI, đặc biệt là trong lĩnh vực sử dụng AI cho mục đích quân sự.
Vai trò của chính phủ: Chính phủ Trung Quốc đóng vai trò trực tiếp hơn trong việc
giám sát và kiểm soát việc phát triển và sử dụng AI. Trong khi đó, Mỹ có cách tiếp cận
đa phương hơn, với sự tham gia của các bên liên quan khác nhau, chẳng hạn như ngành
công nghiệp, học viện và tổ chức xã hội dân sự.
Trung Quốc: Chính phủ Trung Quốc đã sử dụng AI để phát triển hệ thống "Tín dụng
xã hội" nhằm đánh giá mức độ tin cậy của mỗi cá nhân. Một số công ty công nghệ
Trung Quốc, chẳng hạn như Tencent và Alibaba, đã phát triển các hệ thống AI được sử
dụng để giám sát hành vi của người dùng.
Mỹ: Mỹ đã cấm sử dụng AI để nhận dạng khuôn mặt trong các không gian công cộng.
Ngoài ra, Mỹ đang xây dựng các nguyên tắc đạo đức cho việc sử dụng AI trong lĩnh
vực quân sự.
Đạo đức AI là một lĩnh vực đang được quan tâm và phát triển ở cả Trung Quốc và Mỹ.
Cả hai quốc gia có những điểm tương đồng và khác biệt trong cách tiếp cận và quy
định đạo đức AI. Qua việc học hỏi lẫn nhau, cả Trung Quốc và Mỹ có thể phát triển
một khuôn khổ đạo đức AI hiệu quả và toàn diện.
2.2.2 Chiến lươc AI của Trung Quốc so với Mỹ

*Chiến lược AI quốc gia:


- Trung Quốc: có chiến lược AI quốc gia toàn diện mang tên “Artificial Intelligence
Development Plan”. Kế hoạch này vạch ra tham vọng của đất nước trở thành quốc gia
dẫn đầu toàn cầu về AI vào năm 2030. Kế hoạch này tập trung vào các lĩnh vực như
phát triển nhân tài, nghiên cứu và phát triển, triển khai ứng dụng và các cân nhắc về
đạo đức.
- Mỹ: không có chiến lược AI quốc gia tập trung. Tuy nhiên, nước này đã thực hiện
nhiều sáng kiến khác nhau để thúc đẩy AI, bao gồm các mệnh lệnh điều hành, tài trợ
cho nghiên cứu và phát triển cũng như sự hợp tác giữa các cơ quan chính phủ và khu
vực tư nhân. Cách tiếp cận của Mỹ nhấn mạnh đến sự đổi mới, khả năng cạnh tranh
kinh tế và an ninh quốc gia.
*Đầu tư vào AI:
- Trung Quốc: đã đầu tư đáng kể vào nghiên cứu, phát triển và triển khai AI. Chính phủ
Trung Quốc đã cam kết tài trợ hàng tỷ USD để hỗ trợ các sáng kiến AI, bao gồm thành
lập các viện nghiên cứu AI, trung tâm đổi mới và quỹ đầu tư mạo hiểm. Các công ty
Trung Quốc như Baidu, Alibaba và Tencent cũng đã đầu tư rất nhiều vào AI.
- Mỹ: có hệ sinh thái AI mạnh mẽ với các khoản đầu tư đáng kể từ cả khu vực công và
tư nhân. Chính phủ Hoa Kỳ đã tăng tài trợ cho nghiên cứu và phát triển AI, đặc biệt
thông qua các cơ quan như Viện Y tế Quốc gia (NIH) và Cơ quan Dự án Nghiên cứu
Quốc phòng Tiên tiến (DARPA). Các công ty tư nhân ở Mỹ, bao gồm những gã khổng
lồ công nghệ như Google, Microsoft và Amazon, đã đi đầu trong đổi mới AI.
*Quy định và quản trị:
- Trung Quốc: có cách tiếp cận tập trung hơn và từ trên xuống đối với quy định và
quản trị AI. Chính phủ Trung Quốc đóng vai trò quan trọng trong việc giám sát và
kiểm soát việc phát triển và triển khai AI, bao gồm thiết lập các tiêu chuẩn, quản trị dữ
liệu và giám sát các ứng dụng để phát hiện các rủi ro tiềm ẩn.
- Mỹ: Mỹ có cách tiếp cận phi tập trung hơn đối với quy định về AI, với sự kết hợp
giữa các quy định của liên bang, tiểu bang và địa phương. Bối cảnh pháp lý ở Mỹ đang
phát triển, tập trung vào các lĩnh vực như quyền riêng tư, bảo vệ dữ liệu, tính minh
bạch của thuật toán và an toàn. Tuy nhiên, Mỹ nhìn chung có cách tiếp cận theo định
hướng thị trường hơn đối với quản trị AI, tập trung vào đổi mới và tự điều chỉnh của
ngành.
Điều quan trọng cần lưu ý là các chiến lược và cách tiếp cận AI của cả Trung Quốc và
Mỹ đều năng động và có thể thay đổi theo thời gian khi công nghệ và nhu cầu xã hội
phát triển.
2.2.3 Luật AI của Trung Quốc so với Mỹ

*Hoa Kỳ: Cách tiếp cận dựa trên tiền lệ


Hoa Kỳ có cách tiếp cận theo từng trường hợp cụ thể hơn đối với quy định về AI,
thường được gọi là cách tiếp cận "dựa trên tiền lệ". Cách tiếp cận này được đặc trưng
bởi:
+ Luật và khuôn khổ hiện hành: Hoa Kỳ áp dụng luật liên bang và tiểu bang hiện hành
cho AI, cùng với một loạt khuôn khổ do các cơ quan liên bang khác nhau ban hành.
Luật dành riêng cho AI tồn tại ở một số tiểu bang, với các tiểu bang khác đang xem xét
luật giải quyết các mục đích sử dụng khác nhau của công nghệ hỗ trợ AI.
+ Hướng dẫn của Ủy ban Thương mại Liên bang (FTC): FTC đã ban hành hướng dẫn
về khả năng áp dụng cơ quan thực thi của mình để giải quyết các khiếu nại quảng cáo
AI không công bằng hoặc lừa đảo. FTC tập trung vào việc liệu các nhà tiếp thị có đưa
ra tuyên bố sai lệch hoặc vô căn cứ về các sản phẩm hỗ trợ AI hay không.
+ Khung quản lý rủi ro AI: Viện tiêu chuẩn và công nghệ quốc gia (NIST) đã phát
hành khung quản lý rủi ro AI, một hướng dẫn tự nguyện dành cho các tổ chức phát
triển, thiết kế và sử dụng các sản phẩm và dịch vụ liên quan đến AI để quản lý rủi ro
của AI và thúc đẩy các hệ thống AI đáng tin cậy.
+ Pháp luật và quy định về AI cấp tiểu bang: Sự quan tâm của các quốc gia trong việc
quản lý các dịch vụ và sản phẩm AI tiếp tục tăng lên, bằng chứng là việc các nhà lập
pháp tiểu bang đưa ra các dự luật liên quan đến AI ngày càng nhiều, cũng như việc
thành lập các lực lượng đặc nhiệm cấp tiểu bang để kiểm tra nhu cầu. cho các quy định
tập trung vào AI.
Một trường hợp gần đây liên quan đến OpenAI, nhà sản xuất bot ChatGPT nổi tiếng, là
một ví dụ điển hình cho phương pháp này. FTC đã mở một cuộc điều tra về OpenAI
sau một sự cố bảo mật làm lộ dữ liệu của một số người dùng. Cuộc điều tra cũng đang
tìm
hiểu xem liệu kết quả đầu ra của AI có thể gây hại cho người tiêu dùng bằng cách đưa
ra những tuyên bố sai lệch, gây hiểu lầm hoặc chê bai hay không. Trường hợp này
minh họa cách Hoa Kỳ phản ứng với các vấn đề cụ thể khi chúng phát sinh, thay vì
thực thi các quy định toàn diện, chủ động.
Trong khiTrung Quốc đang chủ động thiết lập các khung pháp lý toàn diện cho AI thì
Mỹ hiện đang thực hiện một cách tiếp cận dựa trên tiền lệ, phản ứng nhanh hơn. Khi AI
tiếp tục phát triển và thâm nhập vào các khía cạnh khác nhau của xã hội, nhu cầu về
quy định mạnh mẽ và hiệu quả ngày càng trở nên quan trọng. Các cách tiếp cận tương
phản của các khu vực này nêu bật những thách thức và chiến lược đa dạng trong quy
định về AI trên quy mô toàn cầu.
Kết luận

Đạo đức, chiến lược và luật AI của Trung Quốc từ năm 2020 đên nay đã cho thấy sự
phát triển nhanh chóng và đáng kể. Trung Quốc đã đặt mục tiêu trở thành quốc gia dẫn
đầu thế giới về AI vào năm 2030 và họ đang thực hiện nhiều bước để đạt được mục
tiêu này. Tuy nhiên, vẫn còn một số thách thức đối với sự phát triển của AI ở Trung
Quốc như việc lo ngại rằng các nguyên tắc đạo đức của Trung Quốc không đủ mạnh để
ngăn chặn việc sử dụng AI cho mục đích xấu bên cạnh đó một số người lo ngại Trung
Quốc đang sử dụng AI để tăng cường sự kiểm soát đối với người dân. Nhưng nhìn
chung, Trung Quốc là một trong những quốc gia đang đi đầu trong lĩnh vực AI. Họ đã
đạt được nhiều tiến bộ trong việc phát triển và sử dụng AI. Mặc dù, vẫn còn một số
thách thức cần được giải quyết để đảm bảo rằng AI được sử dụng cho mục đích tốt và
không gây hại cho con người.

Tài liệu tham khảo:

Gleb Markevich/https://www.linkedin.com/pulse/ai-regulation-comparative-analysis-
approaches-us-eu-china-markevich/ 4/3/2024

Huw Roberts, Josh Cowls, Emmie Hine, Jessica Morley, Vincent Wang, Mariarosaria
Taddeo, Luciano
Floridi /https://www.tandfonline.com/doi/full/10.1080/01972243.2022.2124565 4/3/2024

Adam Au/https://thediplomat.com/2023/10/china-vs-us-approaches-to-ai-governance/
5/3/2024

You might also like