Chuẩn mực sử dụng AI dưới góc nhìn văn hóa tổ chức

Trong vài năm gần đây, AI đã đi từ thử nghiệm công nghệ sang công cụ làm việc quen thuộc trong nhiều doanh nghiệp. Nhân sự dùng AI để soạn thảo, phân tích; bộ phận vận hành dùng AI để tối ưu quy trình; lãnh đạo bắt đầu tham khảo AI trong các quyết định quản trị. Khi AI tham gia ngày càng sâu vào công việc hằng ngày, câu hỏi lớn nhất không còn là AI làm được gì, mà là ai chịu trách nhiệm khi AI tham gia vào quyết định.
Đó là lý do vì sao trong Báo cáo CCMM 2025, Blue C xác định “đề cao chuẩn mực trong việc sử dụng AI” là một trong bốn xu hướng văn hóa doanh nghiệp nổi bật của năm 2026. Đây không phải là phản ứng trước rủi ro công nghệ, mà là hệ quả tất yếu khi AI đã bắt đầu định hình hành vi, tư duy và chuẩn mực ngầm trong tổ chức.
Đó có thể là sự lệ thuộc vào công nghệ, sự suy giảm tư duy phản biện, hoặc nguy cơ né tránh trách nhiệm bằng cách viện dẫn thuật toán. Trong những tổ chức thiếu định hướng rõ ràng, AI dễ tạo ra các chuẩn mực ngầm: tốc độ được ưu tiên hơn chất lượng, kết quả được ưu tiên hơn trách nhiệm. Khi đó, vấn đề không nằm ở công nghệ, mà ở cách tổ chức cho phép công nghệ ảnh hưởng đến hành vi con người.
Trách nhiệm số của doanh nghiệp trong kỷ nguyên AI
Nếu trước đây trách nhiệm xã hội của doanh nghiệp thường gắn với môi trường, cộng đồng và người lao động, thì ngày nay trách nhiệm ấy mở rộng sang cách một doanh nghiệp phát triển và sử dụng công nghệ số.
Trách nhiệm số của doanh nghiệp (Corporate Digital Responsibility – CDR) đặt ra một câu hỏi cốt lõi: doanh nghiệp chịu trách nhiệm như thế nào đối với những tác động mà công nghệ tạo ra, không chỉ với khách hàng và xã hội, mà với chính nhân viên và văn hóa nội bộ của mình? AI là phép thử rõ ràng nhất cho CDR, bởi nó tác động trực tiếp đến cách con người được đánh giá, được trao cơ hội và được tin tưởng trong tổ chức.
Một doanh nghiệp thiếu CDR có thể tối ưu hiệu quả trong ngắn hạn bằng AI, nhưng lại đánh đổi niềm tin dài hạn. Ngược lại, doanh nghiệp coi CDR là một phần của văn hóa sẽ hiểu rằng không phải mọi thứ công nghệ làm được đều nên triển khai vào thực tế. Trách nhiệm số khi đó không nằm trên giấy tờ hay chính sách, mà thể hiện qua chuẩn hành vi và cách tổ chức đưa ra quyết định khi có AI tham gia.
Human-in-the-loop: Giữ con người ở trung tâm quyết định
Human-in-the-loop (HITL) thường được nhắc đến trong các hệ thống AI như một cơ chế kiểm soát, nhằm đảm bảo con người vẫn tham gia vào quá trình ra quyết định, thay vì để hệ thống AI hoạt động hoàn toàn tự động. Nói cách khác, AI có thể phân tích, gợi ý và đề xuất, nhưng quyền đánh giá, lựa chọn và chịu trách nhiệm cuối cùng vẫn thuộc về con người.
Về mặt vận hành, mô hình Human-in-the-loop thường bao gồm ba bước rõ ràng:
- Bước 1: AI thực hiện phân tích và đưa ra đề xuất dựa trên dữ liệu do con người cung cấp.
- Bước 2: Con người đánh giá lại kết quả đó, đặt câu hỏi, kiểm chứng thông tin và cân nhắc các yếu tố mà AI không thể nắm bắt đầy đủ như bối cảnh tổ chức, tác động dài hạn hay giá trị cốt lõi.
- Bước 3: Con người đưa ra quyết định cuối cùng và chịu trách nhiệm về hệ quả phát sinh, sau đó tiếp tục sử dụng AI và tạo thành vòng lặp liên tục.
Tuy nhiên, nếu chỉ hiểu theo nghĩa kỹ thuật, khái niệm này sẽ không đủ sức giải quyết những vấn đề mang tính văn hóa mà AI đặt ra. Khi đặt trong bối cảnh văn hóa doanh nghiệp, HITL là một tuyên ngôn về vai trò không thể thay thế của con người. Điều này không chỉ giúp giữ tư duy phản biện được duy trì trong tổ chức, mà còn ngăn sự lệ thuộc hoàn toàn vào máy móc.
IBM là một trong những doanh nghiệp đi đầu trong cách tiếp cận này. Năm 2018, AI đã ban hành bộ Nguyên tắc về sự tin cậy và minh bạch (Principles for Trust and Transparency), sau đó thành lập Hội đồng đạo đức AI (AI Ethics Board) nhằm giám sát và đảm bảo AI được sử dụng một cách có trách nhiệm. Điểm nhất quán trong các tài liệu của IBM là quan điểm: AI nên tăng cường năng lực con người, chứ không thay thế trách nhiệm hay làm mờ vai trò cá nhân. Việc đặt trách nhiệm giải trình ở con người giúp tổ chức bảo vệ chất lượng quyết định và duy trì niềm tin, đặc biệt trong những lĩnh vực nhạy cảm liên quan đến dữ liệu và quyền cá nhân.
Bộ nguyên tắc về sự tin cậy và minh bạch khi sử dụng AI được công khai trên website của IBM
Đào tạo nhân viên: đưa chuẩn mực sử dụng AI vào hành vi hàng ngày
Một thách thức lớn của việc sử dụng AI có trách nhiệm là làm sao để các nguyên tắc không chỉ dừng lại ở quy định, mà thực sự trở thành hành vi quen thuộc trong công việc hàng ngày. Điều này đòi hỏi doanh nghiệp phải đầu tư vào đào tạo và nâng cao năng lực cho đội ngũ.
Một ví dụ điển hình là IKEA với chương trình đào tạo về AI dành cho 3.000 nhân viên và 500 lãnh đạo vào cuối năm 2024. Khóa học được thiết kế để cung cấp sự hiểu biết sâu sắc về AI cho các vai trò khác nhau trong IKEA, không chỉ giúp họ hiểu cách AI hoạt động, mà còn nắm được giới hạn của công nghệ và cách sử dụng AI một cách có trách nhiệm trong công việc.
CDO Parag Parekh của IKEA nhấn mạnh thông điệp: “Sẽ ra sao nếu sự am hiểu AI trở thành một chương trình đào tạo mới về tính an toàn? Trong một môi trường công nghệ thay đổi nhanh chóng, không một ai đáng bị bỏ lại phía sau.” (nguồn: website Ingka)
Mục tiêu của IKEA không chỉ là tăng hiệu suất, mà còn giúp nhân viên yên tâm rằng AI là công cụ hỗ trợ, không phải yếu tố thay thế hay đe doạ vai trò của họ. Khi nhân viên được trang bị kiến thức và hướng dẫn rõ ràng, việc sử dụng AI trở nên chủ động hơn, nhất quán hơn và phù hợp với các giá trị mà tổ chức theo đuổi.
Tại Việt Nam, AI đang được ứng dụng ngày càng rộng trong tài chính – ngân hàng, thương mại điện tử, viễn thông và dịch vụ công, trong khi khung pháp lý liên quan đến AI và dữ liệu vẫn đang tiếp tục hoàn thiện. Trong bối cảnh đó, văn hóa doanh nghiệp đóng vai trò như một lớp đệm quan trọng, giúp tổ chức chủ động thích ứng thay vì bị động chạy theo quy định.
Về dài hạn, việc đề cao chuẩn mực trong sử dụng AI không chỉ giúp doanh nghiệp giảm rủi ro, mà còn tạo dựng niềm tin với khách hàng, đối tác và người lao động. Trong kỷ nguyên AI, lợi thế cạnh tranh bền vững không nằm ở thuật toán, mà ở chuẩn mực văn hóa mà doanh nghiệp lựa chọn để con người và công nghệ cùng ra quyết định.






