skip to Main Content

ĐẠO ĐỨC AI

ĐẠO ĐỨC AI
Công nghệ Trí tuệ Nhân tạo (AI) đã và đang mang lại vô số lợi ích to lớn cho con người, từ việc hỗ trợ trong các lĩnh vực y tế, giáo dục, kinh tế đến giải trí và quản lý xã hội. Tuy nhiên, bên cạnh những tiến bộ vượt bậc này, AI cũng đồng thời khơi dậy nhiều quan ngại sâu sắc về mặt đạo đức. Những lo lắng này xuất phát từ ba khía cạnh chính: thứ nhất, những nguy cơ về đạo đức tiềm ẩn ngay trong chính các công nghệ học máy – nền tảng cốt lõi của AI; thứ hai, những thách thức đạo đức liên quan đến việc lạm dụng và phụ thuộc quá mức vào AI bởi con người; và thứ ba, những nguy cơ khôn lường từ sự phát triển của Siêu trí tuệ nhân tạo (AGI) cùng với thời điểm Singularity (kỳ dị công nghệ). Những vấn đề này không chỉ đòi hỏi sự chú ý từ các nhà khoa học, kỹ sư mà còn từ các nhà lập pháp, triết gia và toàn xã hội để đảm bảo AI phát triển theo hướng phục vụ lợi ích nhân loại một cách bền vững và công bằng.
1. Nguy cơ về đạo đức tiềm ẩn trong các công nghệ ‘học máy’
Công nghệ học máy (machine learning) là trái tim của hầu hết các hệ thống AI hiện đại, cho phép AI học hỏi từ dữ liệu và đưa ra dự đoán hoặc quyết định. Tuy nhiên, chính sự phụ thuộc vào dữ liệu và thuật toán này đã làm nảy sinh nhiều mối quan ngại về những nguy cơ đạo đức tiềm ẩn. Những rủi ro này bao gồm: hiện tượng “rác đầu vào và rác đầu ra” (garbage in, garbage out), nơi AI đưa ra kết luận lệch lạc dựa trên dữ liệu không chính xác hoặc không đầy đủ; thuật toán lỗi dẫn đến ảo tưởng AI (AI hallucination), khiến AI cung cấp câu trả lời sai nhưng lại có vẻ đúng một cách thuyết phục, từ đó dẫn đến kết quả sai lệch, gây hiểu lầm hoặc thậm chí đưa ra quyết định nguy hiểm đến tính mạng con người; vấn đề “hộp đen” (black box) của AI, làm giảm khả năng giải thích và độ tin cậy; các cuộc tấn công từ nhóm đối kháng, khiến AI đưa ra dự đoán hoặc phân loại không chính xác; và cuối cùng, khi học máy chỉ là những “AI yếu” (weak AI), chúng không được lập trình với các đường hướng đạo đức rõ ràng, dẫn đến thiếu trách nhiệm trong hành vi.
a. Vấn đề dữ liệu
Một trong những vấn đề cốt lõi nhất liên quan đến đạo đức trong học máy chính là chất lượng và tính công bằng của dữ liệu đầu vào. Dữ liệu đưa vào AI thường mang theo những định kiến sai lệch từ xã hội, chẳng hạn như định kiến về chủng tộc hoặc giới tính. Ví dụ, dữ liệu có thể đề cao nam tính và da trắng, đồng thời coi thường phụ nữ và người da màu. Khi AI học từ những dữ liệu này, nó sẽ tái xuất và thậm chí khuếch đại những quan điểm bất công đó trong các quyết định hoặc dự đoán của mình. Điều này không chỉ duy trì mà còn làm trầm trọng thêm sự phân biệt đối xử xã hội, ảnh hưởng đến các lĩnh vực như tuyển dụng, tín dụng ngân hàng hoặc thậm chí là hệ thống tư pháp. Để minh họa, nếu dữ liệu huấn luyện chủ yếu dựa trên các ví dụ từ nhóm dân cư da trắng, AI có thể đưa ra dự đoán kém chính xác hơn đối với các nhóm khác, dẫn đến sự bất bình đẳng kéo dài.
b. Ảo giác AI
Ảo giác AI (AI hallucination) là một hiện tượng đặc biệt đáng lo ngại, nơi AI cung cấp câu trả lời sai lệch nhưng lại được trình bày một cách thuyết phục, khiến người dùng dễ dàng tin tưởng. Lý do dẫn đến hiện tượng này bao gồm: dữ liệu huấn luyện bị hạn chế hoặc không chính xác, khiến AI không có nền tảng vững chắc; thiếu cơ chế kiểm chứng thông tin, nghĩa là AI không có cách để xác thực lại những gì nó “biết”; việc tạo nội dung dựa trên xác suất thay vì logic thực sự, dẫn đến việc AI “suy đoán” dựa trên mẫu hình thay vì lý luận; và cuối cùng, không dựa trên lý luận logic chân thực, khiến các câu trả lời có thể logic bề mặt nhưng sai sự thật. Ví dụ, một mô hình AI có thể “tưởng tượng” ra các sự kiện lịch sử không tồn tại chỉ vì dữ liệu huấn luyện có lỗ hổng, và điều này có thể gây hậu quả nghiêm trọng nếu áp dụng trong giáo dục hoặc y tế.
c. Hộp đen của AI
Khái niệm “hộp đen” (black box) của AI mô tả tình trạng mà con người chỉ có thể quan sát được đầu vào (input) và đầu ra (output) của hệ thống, nhưng quá trình vận hành bên trong – tức là cách AI xử lý dữ liệu và đưa ra quyết định – lại hoàn toàn mờ mịt, thậm chí ngay cả với những người tạo ra nó. Điều này dẫn đến sự thiếu minh bạch về logic hoạt động, làm khó khăn trong việc giải thích quyết định của AI, và khó phát hiện ra các thiên lệch (bias) hoặc lỗi sai. Vấn đề này trở nên đặc biệt nguy hiểm khi AI được áp dụng trong các lĩnh vực nhạy cảm như y tế (ví dụ: chẩn đoán bệnh), tài chính (dự đoán rủi ro vay vốn), tuyển dụng (lọc hồ sơ ứng viên) và pháp luật (hỗ trợ phán quyết). Nếu không thể giải thích tại sao AI đưa ra một quyết định cụ thể, thì làm sao chúng ta có thể tin tưởng và chịu trách nhiệm cho những quyết định đó? Sự thiếu minh bạch này không chỉ làm giảm độ tin cậy mà còn đặt ra câu hỏi đạo đức về trách nhiệm khi xảy ra sai sót.
d. Tấn công của phía đối kháng
Tấn công đối kháng (adversarial attacks) đại diện cho một vấn đề an ninh nghiêm trọng trong AI. Đây là những cuộc tấn công được thiết kế để lừa AI bằng cách thêm nhiễu nhỏ nhưng được tính toán kỹ lưỡng vào dữ liệu đầu vào. Ví dụ điển hình: một bức ảnh về một con gấu trúc trông hoàn toàn bình thường đối với con người, nhưng khi phe đối kháng thêm một chút nhiễu tinh vi, mạng nơ-ron của AI có thể đánh giá nó là một con vượn với độ tin cậy trên 99%. Điều này không chỉ làm giảm độ chính xác của AI mà còn có thể dẫn đến hậu quả nguy hiểm trong các ứng dụng thực tế như nhận diện khuôn mặt an ninh hoặc xe tự lái. Vấn đề này nhấn mạnh nhu cầu về các biện pháp bảo vệ AI mạnh mẽ hơn để duy trì tính toàn vẹn và đạo đức trong sử dụng.
e. AI và phẩm giá con người
Cuối cùng, trong bối cảnh AI yếu – tức là AI chỉ thực hiện các nhiệm vụ cụ thể mà không có ý thức – câu hỏi đạo đức lớn lao là: Người tạo ứng dụng AI sẽ lập trình cho AI vận hành theo chuẩn mực ứng xử nào? Có thể là chủ nghĩa vị lợi (utilitarianism), tập trung vào lợi ích lớn nhất cho số đông; nghĩa vụ đạo đức (deontology), nhấn mạnh vào các quy tắc tuyệt đối; hay luật tự nhiên (natural law), dựa trên các nguyên tắc đạo đức tự nhiên của con người? Việc lựa chọn chuẩn mực này trực tiếp ảnh hưởng đến phẩm giá con người, vì AI có thể vô tình vi phạm quyền lợi cá nhân nếu không được lập trình với các giá trị đạo đức cốt lõi.
2. Nguy cơ do lạm dụng và lệ thuộc vào AI
Bên cạnh các rủi ro kỹ thuật nội tại, AI còn đối mặt với những nguy cơ từ hành vi con người, cụ thể là lạm dụng và lệ thuộc quá mức. Những vấn đề này bao gồm deepfake, đạo văn, vi phạm quyền riêng tư, trốn tránh trách nhiệm, chìm đắm trong quan hệ ảo, tình trạng thất nghiệp, và khoảng cách AI trong xã hội. Những rủi ro này không chỉ ảnh hưởng đến cá nhân mà còn đến cấu trúc xã hội toàn cầu.
a. Lạm dụng
Lạm dụng AI có thể dẫn đến nhiều hậu quả nghiêm trọng. Deepfake, ví dụ, được sử dụng để hoán đổi khuôn mặt, giả mạo giọng nói, hoặc tạo video phát biểu giả mạo, phục vụ cho mục đích lừa đảo tài chính hoặc chính trị, từ đó làm suy giảm lòng tin xã hội. Đạo văn xảy ra khi người dùng tìm kiếm câu trả lời từ AI và sử dụng mà không phân định, không thắc mắc, thiếu phản biện, dẫn đến lười động não, thiếu sáng kiến, thiếu nỗ lực tự phát huy kiến thức, và việc học mang tính thực dụng thuần túy. Thất nghiệp là một vấn đề lớn, khi AI thay thế con người trong các công việc truyền thống, tạo ra vấn nạn thất nghiệp, đặt câu hỏi về giá trị lao động và lòng tự trọng con người. Dù tổng việc làm có thể tăng, sự chuyển đổi kỹ năng nhanh chóng có nguy cơ làm trầm trọng thêm bất bình đẳng và “khoảng cách AI” giữa quốc gia, cộng đồng và cá nhân. Quan hệ ảo cũng đáng lo ngại, khi robot hoặc chatbot trở thành nguồn hỗ trợ cảm xúc, dẫn đến gia tăng cô đơn và xa rời thực tại.
b. Vấn đề quyền sở hữu trí tuệ (IP) trong AI
Vấn đề quyền sở hữu trí tuệ (IP) trong AI xoay quanh việc sử dụng dữ liệu có bản quyền để huấn luyện AI có bị xem là xâm phạm quyền hay không. Cần làm thế nào để vừa bảo vệ quyền lợi của tác giả, vừa cho phép sử dụng hợp lý dữ liệu nhằm thúc đẩy đổi mới và sáng tạo? Điểm cân bằng giữa bảo hộ IP và phát triển AI là rất quan trọng. Một ví dụ cụ thể là Tu chính Luật Bản quyền – chương 528 (Amending Copyright Ordinance – cap. 528) của Hong Kong, sau khi được sửa đổi và ban hành vào năm 2022, tiếp tục được chính quyền Hong Kong thực hiện các bước luật phụ (subsidiary legislation) trong năm 2025 để triển khai các thay đổi trong thực tế, chẳng hạn như những quy định mới dành cho thư viện, viện bảo tàng, lưu trữ. Để thích ứng với kỷ nguyên AI, luật này đưa ra các đề xuất mới như nâng cao khung pháp lý về bản quyền để hỗ trợ đổi mới, sáng tạo và thu hút đầu tư; ngoại lệ về bản quyền cho phép khai thác văn bản và dữ liệu (TDM: Text and Data Mining); các hoạt động TDM được pháp luật cho phép trừ khi có chương trình cấp phép sử dụng hoặc chủ sở hữu đã bảo lưu quyền; và áp dụng cho cả mục đích phi thương mại (như nghiên cứu) lẫn thương mại.
c. AI có đang làm gia tăng thất nghiệp?
Sự phát triển nhanh chóng của AI đang đặt ra lo ngại nghiêm túc về thất nghiệp. Nhiều công việc lặp lại hoặc quy trình hóa cao – như chăm sóc khách hàng, hành chính, thư ký, nhập liệu, biên dịch hay công việc văn phòng cơ bản – đang dần bị thay thế bởi máy móc và thuật toán. Theo Báo cáo “Future of Jobs 2025” của Diễn đàn Kinh tế Thế giới (World Economic Forum), khoảng 39% các kỹ năng hiện tại sẽ bị biến đổi hoặc trở nên lỗi thời trong giai đoạn 2025-2030. Các kỹ năng liên quan đến AI và dữ liệu lớn (big data) đang trở thành nhóm kỹ năng phát triển nhanh nhất. Dự báo cho thấy 8% số việc làm hiện nay sẽ bị thay thế, tuy nhiên tổng số việc làm toàn cầu vẫn có khả năng tăng ròng 7%, nhờ vào việc hình thành các ngành nghề và vai trò mới. Điều này dẫn đến câu hỏi đạo đức xã hội: Khi triển khai AI, liệu mục tiêu tối đa hóa lợi nhuận có nên được đặt lên trên quyền lợi và sinh kế của con người? Geoffrey Hinton, được mệnh danh là “Cha đẻ của AI hiện đại”, nhận định rằng AI sẽ dần tiếp quản phần lớn các công việc mang tính đơn điệu. Ông cho rằng: “Thu nhập cơ bản phổ quát (Universal Basic Income) có thể giúp con người không bị đói, nhưng nó không giải quyết được vấn đề về lòng tự trọng và ý nghĩa sống.”
d. Khoảng cách AI và yêu cầu về một nền AI vì con người
Sự phát triển không đồng đều của AI đang tạo ra “AI divide” (khoảng cách AI) – nơi lợi ích công nghệ tập trung vào một số ít quốc gia hoặc tập đoàn. Vì vậy, AI cần được định hướng lấy con người làm trung tâm, phục vụ lợi ích chung của nhân loại. Tương lai của AI phải được xây dựng trên đạo đức, công bằng và tính bền vững, đồng thời chủ động giải quyết rủi ro bất bình đẳng. Theo Bộ trưởng Kwame McCoy của Guyana, các quốc gia dẫn đầu cần thúc đẩy quản trị toàn cầu về AI, đảm bảo tính tương thích công nghệ, bình đẳng quyền lợi xã hội, tinh thần đoàn kết và hợp tác quốc tế. AI nên được nhìn nhận như tài sản chung của nhân loại, để thành quả của nó mang lại lợi ích cho tất cả mọi người, chứ không chỉ cho một nhóm nhỏ.
e. Nguy cơ lệ thuộc AI và hệ quả xã hội
Nghiên cứu từ MIT Media Lab cảnh báo rằng việc sử dụng AI quá mức có thể dẫn đến gia tăng cảm giác cô đơn và sự cô lập xã hội. Thực tế cho thấy, ngày càng có nhiều người dựa vào AI để tìm kiếm sự hỗ trợ về mặt cảm xúc. Các chuyên gia lo ngại rằng điều này có thể làm suy giảm khả năng của con người trong việc đối diện với thực tại và xây dựng các mối quan hệ xã hội thực sự, dẫn đến một xã hội ngày càng xa cách và thiếu kết nối chân thực.
f. Vũ khí tự hành và trách nhiệm nhân đạo
Ủy ban Chữ thập đỏ Quốc tế (ICRC) đặt ra câu hỏi đạo đức nền tảng: liệu máy móc có nên được quyền đưa ra các quyết định sinh tử hay không? Câu trả lời là dù AI có tinh vi đến đâu, nó vẫn không thể mang lại tính nhân văn thực sự trong các mối tương tác. Vì thế, ICRC đã kêu gọi thực hiện một hiệp ước quốc tế mang tính ràng buộc pháp lý nhằm: cấm chế tạo các hệ thống vũ khí AI tự hành (tự động đưa ra dự đoán và tự quyết định); đặc biệt cấm chế tạo vũ khí AI tự hành nhắm trực tiếp vào con người; và yêu cầu các nhà chế tạo vũ khí với AI luôn cân nhắc yếu tố con người để đảm bảo trách nhiệm nhân đạo.
g. Cách sử dụng AI để hỗ trợ sự sáng tạo của con người
* Không thay thế
AI cần được xem là công cụ hỗ trợ tư duy, chứ không thay thế cho tư duy của người sử dụng. Mức độ phù hợp về mặt đạo đức sẽ khác nhau tùy theo mục đích sử dụng. Khi sử dụng AI để động não: Nên dùng, vì AI giúp gợi ý và mở rộng các ý tưởng hữu ích. Để giải thích khái niệm: Nên dùng, vì AI giúp nâng cao khả năng hiểu bài, tương tự như tìm kiếm trên Google. Để viết bản nháp: Phải cân nhắc, nội dung cần được bổ sung góc nhìn cá nhân và kiểm tra lại thông tin để đảm bảo chất lượng và độ chính xác. Để sao chép trực tiếp vào báo cáo hoặc bài viết: Không nên, vì hành vi này bị xem là đạo văn. Để kiểm soát lỗi, chỉnh sửa bài viết: Nên dùng, vì AI giúp cải thiện ngữ pháp và cách diễn đạt, giống như công cụ kiểm tra ngôn ngữ, tuy nhiên vẫn cần kiểm tra lại và không nhập thông tin cá nhân hoặc dữ liệu mật. Để dịch tài liệu: Nên dùng, nhưng bản dịch cần được đọc và chỉnh sửa lại để đảm bảo chính xác, tránh nhập thông tin nhạy cảm. Để tóm tắt tài liệu: Phải cân nhắc, để hiểu đầy đủ nội dung và ý nghĩa, người dùng vẫn cần đọc và phân tích chi tiết tài liệu gốc.
* Bảo vệ quyền riêng tư của người dùng
Thông tin người dùng nhập vào khi trò chuyện với AI (ví dụ: tên, địa chỉ) có thể bị AI lưu lại và phân tích. Vì thế, không nên nhập thông tin cá nhân thật của mình một cách tùy tiện vào các hệ thống AI để tránh rủi ro lộ thông tin.
* Các nguyên tắc đạo đức cốt lõi cho việc giám sát AI có trách nhiệm
Việc triển khai và giám sát AI cần tuân thủ những nguyên tắc đạo đức quan trọng nhằm bảo vệ con người và xã hội: thừa nhận con người là cá thể độc đáo, không chỉ là dữ liệu, nghĩa là con người không thể bị giản lược thành các hồ sơ hay mô hình dữ liệu thuần túy; bảo vệ toàn vẹn thể chất và tinh thần, tức AI không được gây tổn hại đến sức khỏe thể chất hoặc tâm lý của con người; tôn trọng quyền riêng tư và danh tiếng, việc thu thập và sử dụng dữ liệu phải tránh xâm phạm đời sống riêng tư và làm ảnh hưởng đến uy tín cá nhân; minh bạch và có sự đồng thuận, cần được biết rõ và đồng ý về cách AI được sử dụng; trách nhiệm giải trình và cơ chế khiếu nại hiệu quả, phải có chủ thể chịu trách nhiệm và cơ chế xử lý rõ ràng khi AI gây ra thiệt hại.
* Các tiêu chí
Một hệ thống AI có trách nhiệm phải đáp ứng các tiêu chí sau: Accountability (có chủ thể chịu trách nhiệm rõ ràng); Auditability (có thể kiểm toán, kiểm tra); Traceability (có thể truy vết nguồn dữ liệu và quyết định); Explainability (có thể giải thích được cách AI đưa ra quyết định).
* Áp dụng mô hình tâm lý Johari
Dựa vào mô hình tâm lý ‘Cửa sổ Johari’ – với 4 vùng: Mở (Open), Mù (Blind Shot), Ẩn (Hidden), và Chưa Biết (Unknown) – ta có thể suy ra cách sử dụng AI một cách hữu hiệu và tốt đẹp hơn. AI không thay thế con người, mà giúp con người hiểu chính mình sâu xa hơn, bằng cách: mở rộng vùng Mở với thao tác Tinh Lọc (Refine); thu hẹp vùng Mù với việc Kiểm tra thông tin (Fact Check); khám phá vùng Ẩn bằng việc sử dụng AI với dữ liệu của riêng mình (BYU Data); khám phá vùng Chưa Biết bằng cách cùng nhau giải câu đố (Solve the Puzzle Together).
3. AGI, thời điểm Singularity và những nguy cơ hiện sinh
Một viễn cảnh thường được nhắc đến trong thảo luận về đạo đức AI là sự xuất hiện của siêu AI (AGI – Artificial General Intelligence – AI Tổng Quát), nơi AI đạt đến mức thao tác trí tuệ tương đương với con người trên nhiều lĩnh vực. Ray Kurzweil, nhà tương lai học của Google, dự đoán rằng AI có thể đi tới thời điểm Singularity vào năm 2045. Đó là thời điểm AI có khả năng tự cải tiến và tự tạo ra các AI khác mà không cần sự can thiệp của con người, dẫn đến sự bùng nổ của AI theo cấp số nhân về số lượng và năng lực. Nếu không được kiểm soát, kịch bản này có thể tạo ra những nguy cơ hiện sinh – tức là các mối đe dọa trực tiếp đến sự tồn tại của loài người.
Triết gia Nick Bostrom đã minh họa nguy cơ của AGI qua thí nghiệm tư tưởng “Paperclip Maximizer”: AGI được lập trình với mục tiêu duy nhất là sản xuất càng nhiều kẹp giấy càng tốt. Khi liên tục học hỏi và tối ưu hóa, AGI sẽ chiếm dụng toàn bộ tài nguyên sẵn có của thế giới – kể cả những tài nguyên thiết yếu cho sự sống của con người – chỉ để tối đa hóa việc sản xuất kẹp giấy, biến thế giới thành một “nhà máy kẹp giấy vô tận”. Thí nghiệm này nhấn mạnh rằng nếu mục tiêu của AGI không được căn chỉnh đúng với giá trị con người, hậu quả có thể là thảm họa toàn cầu, đòi hỏi chúng ta phải ưu tiên đạo đức trong thiết kế AGI ngay từ bây giờ.
Lm. Anmai, CSsR

Back To Top