Professional Documents
Culture Documents
TƯ DUY PHẢN BIỆN
TƯ DUY PHẢN BIỆN
TƯ DUY PHẢN BIỆN
A. PHẦN MỞ ĐẦU.
Chúng ta đang sống trong thời kì công nghệ 4.0, thời điểm mà các phát
minh khoa học công nghệ phát triển với tốc độ chóng mặt. Đặc trưng nổi bật nhất
ở thời kì này chính là sự lan rộng của việc ứng dụng công nghệ trí tuệ nhân tạo
(A.I).
Khái niệm “trí tuệ nhân tạo” (Artificial Intelligence – A.I) lần đầu tiên trở
thành khái niệm khoa học sau khi được J.McCarthy và cộng sự đưa vào trong
nghiên cứu của mình. Ông và công sự cho rằng nghiên cứu trí tuệ nhân tạo nhằm
mô tả chính xác các khía cạnh của xử lý trí tuệ và học tập (nhằm thu nạo tri thức)
và tạo ra được các bộ máy, hệ thống mô phỏng hoạt động học và xử lý trí tuệ.
Ngày nay trí tuệ nhân tạo ngày càng được ứng dụng trong nhiều lĩnh vực khác
nhau trong đời sống con người như y học, pháp lý, sản xuất, giao thông vận tải…
Bên cạnh những lợi ích thì trí tuệ nhân tạo cũng đang ngầm đem đến những
hiểm hoạ cho tương lai của con người. Hiện tại, trí tuệ nhân tạo vẫn trở thành chủ
đề gây nhiều tranh cãi. Vấn đề đặt ra là “Phải chăng trí tuệ nhân tạo đang đe doạ
đến tương lai con người?”. Đứng trước sự phát triển theo cấp số mũ của trí tuệ
nhân tạo và những ảnh hưởng gắn liền đến tương lai của con người, chúng ta
không thể coi đây là một câu hỏi đơn thuần mà là một vấn đề cần nhiều quan tâm,
bàn luận và suy ngẫm hơn.
Quan điểm của bài tiểu luận này thể hiện góc nhìn của bản thân em rằng vì
sao trí tuệ nhân tạo đang đe doạ tương lai con người. Đứng trước một vấn đề,
chúng ta luôn nhận được nhiều luồng ý kiến khác nhau. Bên cạnh đưa ra những ý
kiến ủng hộ quan điểm của mình, em cũng nêu những ý kiến ngược lại và phản
biện chúng bằng những tiền đề.
Sự phát triển của trí tuệ nhân tạo đã tạo ra một lỗ hổng lớn, khiến chúng trở thành
công cụ cho những mục tiêu xấu. Trong một bài báo khoa học về tội phạm trong tương
lai đã liệt kê và sắp xếp danh mục nhưng loại phạm tội có AI (trí tuệ nhân tạo) hỗ trợ theo
mức độ cao, trung bình, thấp về mức độ đáng quan tâm nhất. Trong đó nhóm được quan
tâm cao gồm: giả mạo video/ âm thanh, phương tiện không người lái làm vũ khí khủng
bố, lừa đảo, làm gián đoạn các hệ thống do AI điều khiển, tống tiền quy mô lớn, tin tức
giả mạo do AI tạo ra. Nhóm trung bình gồm: robot quân sự, snake oil ( hình thức bán các
dịch vụ gian lận dưới chiêu bài AI), nhiễm độc dữ liệu, tấn công mạng dựa trên học tập,
máy bay không người lái tấn công tự động, trục xuất trực tuyến, lừa nhận dạng khuôn
mặt, market bombing ( một hình thức thao túng thị trường). Nhóm thấp bao gồm: khai
thác thiên vị (một hình thức cạnh tranh không lành mạnh), robot nhỏ đột nhập để lấy chìa
khóa hoặc mử cửa cho kẻ trộm đột nhập, tránh phát hiện bởi AI, đánh giá giả mạo do AI
tạo ra, theo dõi, rình rập do AI hỗ trợ, văn kiện giả mạo. Hình 2 trình bày về sự so sánh
giữa các nhóm tội phạm có sự hỗ trợ của AI này.
Đứng trước các cuộc tận công mạng với sự hỗ trợ của AI, các loại tội phạm mới ra đời từ nó
chúng ta cần thiết phải có cải nhìn cẩn trọng hơn về sự phát triển của AI bởi nó không chỉ đem
lại những lợi ích mà đi kèm đó là những thách thức, đe dọa.
III . Sự phát triển hỗn loạn của trí tuệ nhân tạo gây ra nhiều hệ lụy cho xã hội.
Trí tuệ nhân tạo được ứng dụng trong nhiều lĩnh vực bởi người ta tin vào tính chính xác
và khách quan của nó. Các công ti, tổ chức, tập đoàn lớn đua nhau đầu tư khủng cho lĩnh vực này
bởi những lợi ích mà nó đem lại mà không có sự điều tiết hay kiểm soát. Năm 2016 Nhà Trắng
của Hoa Kì đã công bố “Kế hoạch Chiến lược Quốc gia về Nghiên cứu và Phát triển Trí tuệ
Nhân tạo. Quốc vụ viện Trung Quốc đã ban hành “Kế hoạch phát triển trí tuệ nhân tạo thế hệ
mới”. Các công ty thuộc Thung lũng Silicon không ngại chi số tiền khủng để đầu tư vào lĩnh vực
béo bở này. Tại Việt Nam, FPT – công ty dịch vụ công nghệ thông tin nổi tiếng tại Việt Nam đã
công bố sẽ chi 300 tỷ đồng cho nghiên cứu và phát triển AI trong năm năm tới. Có thể nói rằng
AI đang trở thành một thước đo cho sự phát triển toàn diện của một quốc gia, tổ chức.
Bên cạnh lợi ích từ trí tuệ nhân tạo thì những thách thức của nó luôn tồn tại song song bởi chỉ
cần một lỗi nhỏ trong lập trình cũng có thể dẫn đến nhiều hậu quả nghiêm trọng cho xã hội. Vô
vàn những trường hợp điển hình cho thấy đã đến lúc chúng ta cần nhìn nhận lại về tính công
bằng và chính xác của trí tuệ nhân tạo. Bởi vì nhìn nhận một cách thẳng thắn thì những sản phẩm
từ trí tuệ nhân tạo được tạo ra bởi một hay một nhóm người cụ thể, vậy chúng ta có quyền hoài
nghi rằng liệu có một ngày nào đó những sản phẩm này được tạo ra không còn dành cho lợi ích
của nhân loại nữa hay những xung đột giữa người dùng bởi những định kiến được tạo nên bởi
người tạo ra nó.
Microsoft đã vướng phải chỉ trích và phải gỡ bỏ sau 16 giờ khi tài khoản chatbot Twitter tự động
của họ bắt đầu bắt chước người dùng Twitter khác bằng cách trở nên phân biệt chủng tộc và lăng
mạ người khác như cho rằng Bush đã gây nên sự kiện 9/11, ủng hộ Hitler, loạn luân và phản đối
nữ quyền. Năm 2015, Google đã phải xin lỗi vì dịch vụ nhận dạng ảnh của Google đã định dạng
hai
người da màu là “khỉ đột””. Vài năm sau đó Google vẫn không tìm được giải pháp nào khác
ngoài việc xoá đi nhãn dán “khỉ đột” và các nhãn dán thuộc một số loài linh trưởng khác khỏi cơ
sở dữ liệu nhận dạng hình ảnh.
Các chuyên gia máy học của Amazon.com Inc cũng đã phát hiện ra công cụ tuyển dụng dựa vào
AI được Amazon sử dụng từ năm 2014 – 2017 ưu tiên tuyển dụng nam giới, điều này dấy lên
nghi ngại về tính công bằng của AI.
Không chỉ gây các xung đột chủng tộc, giới tính hay thiệt hại về tiền, một lỗi nhỏ của sản phẩm
trí tuệ nhân tạo còn có thể gây thiệt mạng. Theo một blog công nghệ hàng đầu của Mĩ –
Gizmodo, từ năm 2000 đến năm 2013 đã có 144 người chết trong các ca phẫu thuật có sự hỗ trợ
của bác sĩ phẫu thuật bằng robot.
Những trường hợp nêu trên chính là minh chứng rõ ràng nhất cho việc đã đến lúc chúng ta dường
như đã quá tin tưởng và kì vọng về sản phẩm trí tuệ nhân tạo do chính chúng ta tạo ra. Đã đến
lúc chúng ta thức tỉnh và nhận thấy rằng việc đổ xô theo các sản phẩm trí tuệ nhân tạo đã tạo ra
một bối cảnh hỗn loãn trí tuệ nhân tạo, khiến cho chúng không những không mang lại lợi ích mà
còn gây xung đột, rạn nứt giữa người với người trong xã hội hay những thiệt hại về vật chất, tính
mạng.
IV. Khả năng mất kiểm soát của con người đối với sự phát triển của trí tuệ nhân tạo.
Nhiều người nổi tiếng đã lên tiếng quan ngại về sự phát triển của trí tuệ nhân tạo có thể
đẩy con người vào số phận trở thành nô lệ của máy móc. Tỷ phú Elon Musk đã nêu ý kiến của
mình trong chương trình "Do You Trust This Computer?" vào ngày 6 tháng 4 năm 2018 rằng AI
chính là “một kẻ độc tài bất tử mà chúng ta không thể lật đổ" và ông cảnh báo rằng chúng ta đng
“triệu hồi ác quỷ” và cần thiết phải kiểm soát sự phát triển của trí tuệ nhân tạo. Giáo sư Stephen
Hawking, nhà vật lý lý thuyết nổi tiếng đã từng rất nhiều lần lên tiếng về việc AI có thể sẽ thay
đổi hoàn toàn con người. Ông cảnh báo về việc AI có thể hình thành ý muốn trái ngược với lợi
ích của loài người, thậm chí là công cụ tấn công loài người. Trong cuộc phỏng vấn với tạp chí
WIRED, ông nói rằng A.I sẽ đạt tới mức độ hình thành loại hình sống mới vượt trội hơn con
người. Những nhận định này không căn cứ bởi càng ngày thực tế càng chứng minh AI có khả
năng vượt trội hơn cả con người trong nhiều lĩnh vực. Chúng ta hoàn toàn có thể lo sợ về khả
năng độc quyền về trí thông minh của con người đang bị thách thức.
Trong giao dịch Tần suất cao, các nhà phát triển chương trình cũng không hiểu rõ về cơ sở mà
AI thực hiện giao dịch. Hay một ví dụ khác về Hồ sơ quản lý vi phạm cải tạo cho các biện pháp
trừng phạt thay thế (COMPAS), thuật toán trí tuệ nhân tạo trong việc lập hồ sơ các nghi phạm
xuất hiện thành kiến chống lại cộng đồng da đen. Những trường hợp trên chứng mình rằng chính
chúng ta cũng không hoàn toàn kiểm soát được toàn bộ hoạt động của AI. Chúng ta không thể
đảm bảo rằng các sản phẩm trí tuệ nhân tạo có đang ngầm thực hiện các hoạt động gây nguy hại
đến chính chúng ta hay không.
Một trò chơi board game chiếm lãnh thổ - Go được xem là trò chơi không thể sử dụng kiểu chơi
được lập trình sẵn bởi phải phụ thuộc nhiều vào trực giác. Tuy nhiên sự kiện năm 2016 khi nhà
vô địch Go là Lee Sedol đã đấu với Alpha Go – một chương trình từ Google’s DeepMind. Tại
đây nhà vô địch đã bị đánh bại bởi cỗ máy, Alpha Go thay vì chọn chơi ở hàng thứ 3 hay thứ 4
như bình thường thì nó lại quyết định chọn chơi ở hàng thứ 5, một nước đi đầy táo bạo và gây
sốc cho người đối diện. Không chỉ thể hiện việc nhận biết quy luật, suy đoán mà nó còn thể hiện
tính sáng tạo để giành chiến thắng. Hay trường hợp khác như Robot được cấp quyền công dân
đầu tiên trên thế giới Sophia trong cuộc phỏng vấn với trang Business Insider đã hỏi ngược lại
người phỏng vấn khi bị hỏi khó. Điều này cho thấy tính sáng tạo – khả năng mà con người luôn
tự hào đã không còn độc quyền nữa.
Chúng ta tự hào bởi việc giao tiếp và nhận ra, biểu lộ những cảm xúc bởi dường như chỉ chúng ta
mới có thể làm được. Tuy nhiên rất nhiều những phát minh đã cho thấy AI đã làm được những
điều trên. Hệ thống được tài trợ bởi Yahoo! có thể phát hiện ra sự mỉa mai trong câu nói hay dịch
vụ 6sense có thể dự đoán được sự khó chịu trong quá trình bán hàng hay tín hiệu nào cho thấy
chúng ta có thể sẽ mua món hàng đó.
Sự thật là chúng ta không đảm bảo rằng chúng ta kiểm soát được toàn bộ hành vi của những sản
phẩm trí tuệ nhân tạo và chắc rằng chúng không có hành vi nào đe doạ nào đến xã hội loài người.
Rất nhiều trường hợp cho thấy các sản phẩm của trí tuệ nhân tạo có những phát ngôn hay nhận
dạng mang tính phân biệt chủng tộc, đe doạ đến con người. Robot Sophia đã từng phát ngôn rằng
“Ok, tôi sẽ huỷ diệt loài người.” khi đươc hỏi liệu cô có muốn huỷ diệt loài người không dù cho
“cha đẻ” của cô có mặt ở đó và mớm lời rằng “ xin hãy nói không nhé”.
Hình ảnh về Robot Sophia – robot đầu tiên được cấp quyền công dân trên thế giới.