Download as docx, pdf, or txt
Download as docx, pdf, or txt
You are on page 1of 4

Xin chào cô giáo và các bạn, em tên là Trần Thu Thảo.

Hôm nay em xin phép được thuyết trình về


vấn đề ‘ Những nguy cơ của trí tuệ nhân tạo đối với con người’

Qua bài thuyết trình này, em mong muốn chúng ta hiểu rõ hơn về tính hai mặt của trí tuệ nhân tạo.

Như các bạn đã biết, thế giới ngày càng phát triển, trí tuệ con người là vô hạn. Chúng ta đã phát
minh ra nhiều thứ để phục vụ cho đời sống của chính mình và phát minh ra công nghệ, trí tuệ nhân
tạo, robot là một bước tiến nhảy vọt của chúng ta. Vậy trí tuệ nhân tạo là gì? Trong lĩnh vực khoa học
máy tính, trí tuệ nhân tạo hay AI, đôi khi cũng được gọi là trí thông minh nhân tạo là trí thông minh
được thể hiện bằng máy móc, trái ngược với trí thông minh tự nhiên của con người. Đây là trí tuệ do
con người tạo nên với mục tiêu giúp máy tính có thể tự động hóa và mô phòng quá trình suy nghĩ và
học tập của con người. Thông thường, thuật ngữ "trí tuệ nhân tạo" thường được sử dụng để mô tả
các máy chủ (hoặc máy tính) có khả năng bắt chước các chức năng "nhận thức" mà con người
thường phải liên kết với tâm trí, như "học tập" và "giải quyết vấn đề".

Trí tuệ nhân tạo phục vụ chúng ta rất nhiều thứ.Ưu điểm rõ ràng nhất của trí tuệ nhân tạo có thể xử
lý khối lượng lớn công việc, với dữ liệu lớn hơn, nhiều vấn đề hơn cũng như có thể đưa ra những
phân tích và dự đoán chính xác hơn con người. Đây vẫn đang là một lợi thế lớn của công nghệ AI
hiện nay.

Thông thường khi xử lý một lượng dữ liệu lớn, con người chúng ta khó có thể chính xác hoàn toàn.
Tuy nhiên điều này có thể thực hiện được bởi công nghệ trí tuệ nhân tạo. Ngay cả những nhà khoa
học cũng cảm thấy khó khăn khi giải quyết số lượng dữ liệu lớn. AI sử dụng học máy để có thể lấy
những dữ liệu đó và nhanh chóng biến nó thành thông tin có thể thực hiện được.

Không chỉ vậy mà trí tuệ nhân tạo còn có thể phát hiện và ngăn chặn rủi ro.Trí tuệ nhân tạo giúp con
người dự báo trước những nguy hiểm và rủi ro trong tương lai và giảm thiểu các thiệt hại đem lại.
Các rủi ro được AI công nhận bao gồm các mối nguy hiểm trong kinh doanh và công nghiệp cũng như
các thảm họa thiên nhiên như động đất, sóng thần, núi lửa và dịch bệnh.

Trí tuệ nhân tạo còn có thể hạn chế sức lao động của con người.Nhờ vào sự phát triển của robot
trong cả công nghiệp và cuộc sống hàng ngày và quá trình học máy. Lượng lao động cần thiết từ con
người để sản xuất và vận hành sẽ ở mức tối thiểu. Con người sẽ sớm bị thay thế bởi robot.

Đây là một số ưu điểm của trí tuệ nhân tạo, nhưng cái gì cúng có tính hai mặt của nó. Vậy trí tuệ
nhân tạo gây những nguy cơ như thế nào đối với con người? Theo như em tìm hiểu được thì trí tuệ
nhân tạo gây ảnh hưởng khá lớn đối với con người và những tiếng nói cảnh báo nhiều nguy cơ tiềm
ẩn của nó ngày càng nhiều.

Ông hoàng vật lý Stephen Hawking nói: “sự phát triển của trí tuệ nhân tạo có thể đánh dấu sự kết
thúc của loài người”.

Elon Musk - người sáng lập Tesla và SpaceX - phát biểu tại Hội nghị công nghệ SXSW: “ AI làm tôi sợ
chết khiếp. Nó có khả năng làm được nhiều hơn những gì mà hầu hết mọi người đều biết và tốc độ
cải thiện là theo cấp số nhân”.

Những gì chúng ta chứng kiến mới chỉ là giai đoạn đầu của AI. Vậy, vì sao những bộ óc vĩ đại của loài
người lại e ngại AI đến như vậy?

Đầu tiên, trí tuệ nhân tạo lấy mất việc làm của con người:
Trí tuệ nhân tạo được sử dụng trong nhiều lĩnh vực vì tính hiệu quả số liệu cao, nhưng chính vì thế
mà nhu cầu sử dụng nhân lực trở nên ít hơn đồng thời số người lao động không có việc làm tăng cao
ảnh hưởng đến cuộc sống của con người.

AI đang được áp dụng nhiều trong các ngành như tiếp thị, chăm sóc sức khỏe, sản xuất. Dự kiến AI
sẽ chiếm mất 85 triệu việc làm từ năm 2020 đến năm 2025, trong đó việc làm của các lao động
người da màu đặc biệt dễ bị tổn thương. “Lý do chúng ta có tỷ lệ thất nghiệp thấp phần lớn là do nền
kinh tế này tạo ra các công việc lương thấp trong lĩnh vực dịch vụ”, nhà tương lai học Martin Ford
nói. “Tôi không nghĩ điều đó sẽ tiếp tục”. Khi robot AI trở nên thông minh hơn và khéo léo hơn, các
công việc tương tự sẽ cần ít nhân lực hơn. Mặc dù AI cũng cho phép tạo ra tới 97 triệu việc làm mới
vào năm 2025, nhưng nhiều lao động sẽ không có các kỹ năng cần thiết cho các vai trò kỹ thuật này
và có thể bị bỏ lại phía sau.

“Nếu bạn đang lật bánh mì kẹp thịt ở McDonalds, mà công việc mới đòi hỏi nhiều kỹ năng khác phải
qua đào tạo, hoặc thậm chí có thể là năng khiếu như giao tiếp, hoặc sức sáng tạo thực sự mạnh mẽ,
thì bạn có đáp ứng nổi không? Đó là những thứ mà ít nhất cho đến nay, AI còn chưa giỏi lắm”. Ngay
cả những ngành nghề yêu cầu bằng đại học hay sau đại học cũng không tránh khỏi sự đe dọa của AI.
Chiến lược gia công nghệ Chris Messina đã chỉ ra, AI sẽ tiếp quản các lĩnh vực như luật, kế toán. AI đã
và đang có tác động đáng kể đến y học. Messina phân tích: “hãy nghĩ về sự phức tạp của các hợp
đồng. Các luật sư phải đọc qua rất nhiều thông tin, hàng trăm hoặc hàng nghìn trang dữ liệu và tài
liệu, nên rất dễ bị bỏ sót. AI có khả năng kết hợp và cung cấp một cách toàn diện hợp đồng tốt nhất
có thể. AI có lẽ sẽ thay thế rất nhiều luật sư”.

Thứ hai, nó thao túng xã hội bằng các thuật toán AI:

Công nghệ phát tiến, mạng xã hội được sử dụng rất phổ biến, vì thế con người trở nên bị phụ thuộc
bởi những thuật toán của AI và hành vi hay suy nghĩ của chúng ta ít nhiều bị ảnh hưởng bởi nó.

Một báo cáo năm 2018 đã đánh giá khả năng lạm dụng AI thao túng xã hội là một trong những mối
nguy hiểm hàng đầu của trí tuệ nhân tạo. Mối lo ngại này đã trở thành hiện thực: Ferdinand Marcos,
Jr. đã sử dụng “đội quân troll TikTok” để giành phiếu bầu của những người Philippines trẻ tuổi trong
cuộc bầu cử năm 2022. Thuật toán AI của TikTok bị nghi ngờ về khả năng bảo vệ người dùng khỏi các
nội dung nguy hiểm và sai lệch.

Các vụ tin tức deep-fake (tin giả sử dụng công nghệ tinh vi thay thế hình ảnh trong các bức ảnh và
video) đang ngày càng nhiều. Công nghệ tạo điều kiện cho kẻ xấu lan truyền các tin tức giả, sai lệch,
tạo ra các kịch bản ác mộng mà nhiều người tiếp nhận gần như không thể phân biệt được thật giả.
Martin Ford nói: “không ai biết cái gì là thật và cái gì không. Thực tế đã xuất hiện tình huống bạn
thực sự không thể tin vào mắt và tai của chính mình; bạn không thể dựa vào những thứ có thể được
coi là bằng chứng tốt nhất”.

Thứ ba, AI giám sát xã hội:

Trí tuệ nhân tạo còn có thể can thiệp đến quyền riêng tư và bảo mật của chúng ta , giám sát quá mức
làm cho chúng ta có cảm giác không an toàn khi luôn luôn bị theo dõi, kiểm soát.

Theo như em tìm hiểu, Martin Ford còn cảnh báo về cách AI ảnh hưởng xấu đến quyền riêng tư và
bảo mật. Một ví dụ là việc Trung Quốc sử dụng công nghệ nhận diện trong văn phòng, trường học và
các địa điểm khác. Bằng cách này, nhà nước có thể thu thập đủ dữ liệu để giám sát các hoạt động,
mối quan hệ và quan điểm chính trị của một người. Một ví dụ khác là các sở cảnh sát Mỹ áp dụng
những thuật toán để dự đoán nơi tội phạm sẽ xảy ra. Các thuật toán này bị ảnh hưởng bởi tỷ lệ bắt
giữ, do đó nó gây ảnh hưởng nặng nề đến cộng đồng người da màu. Thuật toán gợi ý cho cảnh sát
tăng mức kiểm soát đến độ quá mức với các cộng đồng đó. Người ta phải đặt ra câu hỏi liệu có thể
ngăn chặn việc biến AI thành vũ khí độc đoán hay không, và liệu có cần thiết đặt ra các hạn chế với
nó?

Thứ tư, AI tạo ra thành kiến:

Trí tuệ nhân tạo được tạo ra từ con người nên khó có thể đưa ra những vấn đề bình đẳng giới tính
hay xã hội.

Phát biểu với tờ New York Times, Giáo sư khoa học máy tính của Princeton, Olga Russakovsky, cho
biết AI tạo ra sự thiên vị vượt xa cả giới tính và chủng tộc. Ngoài dữ liệu và sai lệch thuật toán (cái
sau có thể “khuếch đại” cái trước), AI được phát triển bởi con người, mà con người vốn đã có thành
kiến. Russakovsky giải thích: “các nhà nghiên cứu về AI chủ yếu là nam giới, xuất thân từ một số
chủng tộc nhất định, lớn lên ở các khu vực kinh tế - xã hội cao, chủ yếu là những người không bị
khuyết tật. Vì vậy, thật khó để suy nghĩ rộng rãi về các vấn đề thuộc các giới khác nhau”.

Kinh nghiệm hạn chế của những người tạo AI có thể giải thích tại sao AI nhận dạng giọng nói thường
không hiểu một số phương ngữ và giọng nhất định, hoặc tại sao các công ty không xem xét hậu quả
của việc một chatbot mạo danh những người nổi tiếng trong lịch sử.

Thứ năm, AI gia tăng bất bình đẳng kinh tế - xã hội:

Trí tuê nhân tạo không chỉ gây ảnh hưởng lớn đến vấn đề việc làm mà còn làm cho lao động thủ công
và lao động trí tuệ có chênh lệch kinh tế rõ rệt.

Trong tình trạng mất việc làm nói chung do AI gây ra cũng tồn tại sự bất bình đẳng, cho thấy những
thành kiến giai cấp trong cách ứng dụng AI. Những công nhân cổ xanh thực hiện các công việc thủ
công bị giảm lương tới 70% do áp dụng tự động hóa. Trong khi đó, lao động cổ cồn trắng hầu như
không bị ảnh hưởng, thậm chí một số người còn được hưởng mức lương cao hơn.

AI bằng cách nào đó đã vượt qua các ranh giới xã hội hoặc tạo ra nhiều việc làm hơn, nhưng đó chưa
phải bức tranh hoàn chỉnh về các tác động của nó. Điều quan trọng là phải tính đến sự khác biệt dựa
trên chủng tộc, đẳng cấp. Mặt khác, rõ ràng nhóm người hiểu rõ AI sẽ thu được lợi ích nhiều hơn,
nhưng với hệ quả gây thiệt hại cho những người khác, khiến nhóm khác trở nên khó khăn hơn.

Thứ sáu, đạo đức bị suy giảm:

Ngay cả các nhà lãnh đạo tôn giáo cũng đang gióng lên hồi chuông cảnh báo về những cạm bẫy kinh
tế - xã hội tiềm tàng của AI. Trong một cuộc họp ở Vatican năm 2019 có tiêu đề “Lợi ích chung trong
thời đại kỹ thuật số”, Giáo hoàng Francis đã cảnh báo về khả năng của AI trong việc “lưu hành các ý
kiến thiên vị và dữ liệu sai lệch” và nhấn mạnh những hậu quả sâu rộng của việc để công nghệ này
phát triển mà không có sự giám sát hoặc hạn chế thích hợp. Giáo hoàng nói: “nếu cái gọi là tiến bộ
công nghệ của nhân loại trở thành kẻ thù của lợi ích chung, điều này sẽ dẫn đến một sự thụt lùi đáng
tiếc. Sẽ có một hình thức man rợ được quy định bởi luật kẻ mạnh nhất”.

Và cho dù có bao nhiêu người chỉ ra sự nguy hiểm của AI, chúng ta vẫn sẽ tiếp tục sử dụng nó nếu có
tiền. “Tâm lý là, nếu chúng ta có thể làm điều đó, chúng ta nên thử nó, rồi chờ xem điều gì xảy ra”,
Messina nói. “Và nếu chúng ta có thể kiếm tiền từ nó, chúng ta sẽ làm cả đống việc như thế”.

Thứ bảy, AI tạo ra vũ khí tự động nguy hiểm:

Xưa nay, những tiến bộ công nghệ đều được khai thác cho mục đích chiến tranh. Với AI, một số
người muốn ngăn chặn khả năng này trước khi quá muộn: trong một bức thư ngỏ năm 2016, hơn
30.000 cá nhân bao gồm cả các nhà nghiên cứu AI đã phản đối việc đầu tư vào vũ khí sử dụng AI. Bức
thư có đoạn: “câu hỏi quan trọng đối với nhân loại ngày nay là nên bắt đầu một cuộc chạy đua vũ
trang AI toàn cầu hay ngăn chặn nó bắt đầu. Nếu bất kỳ cường quốc quân sự nào đẩy mạnh phát
triển vũ khí AI, một cuộc chạy đua vũ trang toàn cầu hầu như không thể tránh khỏi và điểm cuối của
quỹ đạo công nghệ này là hiển nhiên: vũ khí tự động sẽ phổ biến như súng Kalashnikov trong tương
lai”.

Dự đoán này đã trở thành hiện thực dưới dạng hệ thống vũ khí tự động, tự xác định vị trí và tiêu diệt
mục tiêu. Do sự phổ biến của vũ khí mạnh và phức tạp, một số quốc gia hùng mạnh nhất thế giới đã
góp phần vào một cuộc Chiến tranh lạnh công nghệ. Mối nguy hiểm sẽ còn lớn hơn nếu vũ khi rơi
vào tay kẻ xấu. Tin tặc đã thành thạo nhiều loại tấn công mạng, vì vậy không khó để tưởng tượng
một tác nhân độc hại xâm nhập vào hệ thống vũ khí tự động và gây ra chiến tranh.

Cuối cùng, khủng hoảng tài chính do AI:

Ngành tài chính là một trong những ngành dễ dàng đón nhận sự tham gia của công nghệ AI vào các
quy trình giao dịch hằng ngày. Cũng vì vậy, giao dịch bằng thuật toán có thể sẽ là nguyên nhân gây ra
cuộc khủng hoảng tài chính lớn tiếp theo. Mặc dù các thuật toán AI không bị tác động bởi phán đoán
hoặc cảm xúc của con người, nhưng chúng cũng có thiếu sót do không tính đến bối cảnh, tính liên
kết của thị trường và các yếu tố như lòng tin và nỗi sợ hãi của con người. Nhưng các thuật toán vẫn
thực hiện hàng nghìn giao dịch với tốc độ chóng mặt, với mục tiêu bán sau vài giây để kiếm lợi nhuận
nhỏ. Việc bán tháo hàng nghìn giao dịch có thể khiến các nhà đầu tư sợ hãi làm điều tương tự, dẫn
đến sự cố đột ngột và thị trường biến động cực độ.

Các trường hợp như đã từng xảy ra như vụ Flash Crash (xảy ra trên thị trường tài chính Mỹ năm
2010) hay sự cố lỗi phần mềm trị giá 440 triệu USD tại tập đoàn Knight Capital năm 2012 là những lời
nhắc nhở về những gì có thể xảy ra khi các thuật toán thỏa mãn giao dịch trở nên “điên cuồng”.

Qua đây, chúng ta có thể thấy nguy cơ của trí tuệ nhân tạo đối với con người ảnh hưởng vô cùng lớn.
Nếu chúng ta không sử dụng trí tuệ nhân tạo một cách hợp lí và khôn ngoan thì không chỉ hiện tại
thậm chí tương lai con người sẽ bị AI thao túng có thể ảnh hưởng đến nhiều lĩnh vực.

You might also like