Quản trị AI: Giảm thiểu rủi ro trước khi gặt hái thành công
Quản trị AI liên quan đến nhiều lĩnh vực chức năng trong doanh nghiệp – quyền riêng tư dữ liệu, các thuật toán v.v… Do đó, việc giải quyết vấn đề quản lý việc sử dụng các công nghệ trí tuệ nhân tạo đòi hỏi hành động ở nhiều cấp độ.
Kamlesh Mhashilkar, trưởng bộ phận dữ liệu và phân tích tại Tata Consultancy Services, cho biết: “Nó không bắt đầu ở cấp IT hoặc cấp dự án”. Ông nói, quản trị AI cũng xảy ra ở cấp chính phủ, cấp hội đồng quản trị và cấp CSO.
Ví dụ, trong lĩnh vực chăm sóc sức khỏe, các mô hình AI phải vượt qua các cuộc kiểm tra và đánh giá nghiêm ngặt, ông nói. Nhiều ngành khác cũng có quy định áp dụng. “Và ở cấp độ hội đồng quản trị, đó là về các hành vi kinh tế,” Mhashilkar nói. “Bạn phải đối mặt với những rủi ro nào khi sử dụng AI?”
Đối với C-suite, các chương trình nghị sự của AI được định hướng theo mục đích. Ví dụ, giám đốc tài chính sẽ hài lòng với giá trị của cổ đông và lợi nhuận. CIO và giám đốc dữ liệu cũng là những bên liên quan chính, cũng như các giám đốc tiếp thị. Và đó là chưa kể đến khách hàng và nhà cung cấp.
Không phải tất cả các công ty sẽ cần phải hành động trên tất cả các mặt trong việc xây dựng chiến lược quản trị AI. Đặc biệt, các công ty nhỏ hơn có thể có ít ảnh hưởng đến những gì các nhà cung cấp lớn hoặc các nhóm quản lý thực hiện. Tuy nhiên, tất cả các công ty đang hoặc sẽ sớm sử dụng trí tuệ nhân tạo và các công nghệ liên quan, ngay cả khi chúng chỉ được nhúng vào các công cụ và dịch vụ của bên thứ ba mà họ sử dụng.
Và khi được sử dụng mà không có sự giám sát thích hợp, AI có khả năng mắc những sai lầm gây hại cho hoạt động kinh doanh, vi phạm quyền riêng tư, vi phạm các quy định của ngành hoặc tạo ra dư luận xấu cho một công ty.
Dưới đây là cách các công ty có tư duy đang bắt đầu giải quyết vấn đề quản trị AI khi họ mở rộng các dự án AI từ thí điểm sang sản xuất, tập trung vào chất lượng dữ liệu, hiệu suất thuật toán.
Nhận dạng đúng dữ liệu
Rủi ro lớn nhất của việc sai lệch thuật toán là những dữ liệu không chính xác. Ví dụ, đối với nhận dạng khuôn mặt, các tập dữ liệu trong lịch sử không phải là đại diện cho dân số chung. Granek nói: “Họ có thành kiến với những người đàn ông da trắng. “Nó đang được sửa chữa, nhưng vẫn còn rất nhiều việc phải làm.”
Các chuyên gia có thể giúp khắc phục các vấn đề về sai lệch dữ liệu và các nhà cung cấp dữ liệu thương mại đang nỗ lực để lấp đầy khoảng trống trong dữ liệu mà họ cung cấp. Cũng có nhiều cách để tạo tập dữ liệu tổng hợp, nhưng giải pháp thường là tìm kiếm ở bên ngoài và nhận được dữ liệu tốt hơn, Granek nói.
Đối với một số ứng dụng AI, bộ dữ liệu chính xác có thể là sự khác biệt giữa sự sống và cái chết. Nhưng ngay cả khi tác động của tập dữ liệu xấu không dẫn đến thảm họa công khai, chúng vẫn có thể gây ra thiệt hại về hoạt động hoặc tài chính cho các công ty hoặc dẫn đến các vấn đề về quy định.
Sau đó là mối quan tâm đối với Cemex có trụ sở tại Mexico, một trong những nhà phân phối vật liệu xây dựng lớn nhất thế giới. Công ty đã có hơn 100 năm tuổi nhưng đang tự tái tạo thông qua việc sử dụng trí tuệ nhân tạo trong quản lý và vận hành chuỗi cung ứng.
Cemex bắt đầu xem xét AI và các công nghệ liên quan để tăng thị phần, cải thiện dịch vụ khách hàng và thúc đẩy lợi nhuận từ khoảng ba năm trước.
“Năm ngoái và năm nay, chúng tôi thực sự thấy giá trị của AI trên quy mô toàn cầu – không chỉ trong một thí điểm nhỏ”, Nir Kaldero, giám đốc AI của công ty cho biết.
Ông nói: Với việc AI được đưa vào DNA của công ty, Cemex nhận ra sự cần thiết phải đưa ra các cấu trúc quản trị xung quanh nó, ông nói.
Tất cả bắt đầu với dữ liệu. Kaldero nói: “Không có AI tốt và đáng tin cậy nếu không có kiến trúc thông tin tốt. “Bạn không thể có các mô hình tốt, đáng tin cậy nếu không có thông tin tốt.”
Tại Cemex, quản trị dữ liệu bao gồm bảo mật, giám sát, quyền riêng tư. Công ty cần biết dữ liệu được đặt ở đâu, sử dụng ở đâu và như thế nào, liệu dữ liệu đó có đáp ứng các yêu cầu quy định hay không và liệu dữ liệu đó có bị sai lệch hay không.
Cemex, công ty dựa trên nền tảng dữ liệu đám mây Snowflake để quản lý dữ liệu của mình và Satori để quản lý quyền truy cập, có một giám đốc điều hành cấp cao chỉ tập trung vào dữ liệu và một giám đốc điều hành cấp cao khác tập trung vào quản trị, người đứng đầu một nhóm quản trị, Kaldero nói.
Sử dụng đúng mô hình
Ngoài quản trị dữ liệu, Cemex đã bắt đầu tạo ra quản trị xung quanh các mô hình và kết quả AI. “Đó là một cái gì đó mới,” Kaldero nói. “Không chỉ cho Cemex, mà cho cả thế giới.”
Nhiệm vụ này được chia sẻ giữa nhóm AI và khoa học dữ liệu của Kaldero và nhóm CIO.
Cemex hiện đang sử dụng AI dự đoán nhu cầu để có thể tiết kiệm tiền bằng cách đàm phán các giao dịch tốt hơn với các nhà cung cấp của mình. Nó cũng đang sử dụng AI để định tuyến và lên lịch cho xe tải, cũng như bán hàng và định giá. Nếu bất kỳ tính toán nào trong số này bị sai lệch, công ty sẽ mất rất nhiều tiền.
Vì vậy, để chống lại sự trôi dạt mô hình và sai lệch thuật toán, Cemex sử dụng công nghệ từ Algorithmia có trụ sở tại Seattle.
KenSci là một công ty khác lo ngại về hậu quả của các mô hình AI. Công ty có trụ sở tại Seattle sử dụng AI để phân tích dữ liệu chăm sóc sức khỏe, một lĩnh vực mà các mô hình AI chính xác có thể trở thành vấn đề sinh tử theo đúng nghĩa đen.
Muhammad Aurangzeb Ahmad, nhà khoa học dữ liệu chính của công ty cho biết: “Chúng tôi luôn bắt đầu bằng việc xem xét các mục tiêu của mô hình AI với các bên liên quan đại diện. Để đảm bảo các mô hình đó là minh bạch và có trách nhiệm giải trình, khả năng giải thích là một thành phần cốt lõi.
Ông nói: “Chúng tôi thậm chí đã phát hành một gói Python mã nguồn mở – fairMLHealth – có thể được sử dụng bởi bất kỳ ai để đo lường tính công bằng của các mô hình máy học.
Ahmad cũng khuyến nghị kiểm tra các mô hình AI về hiệu suất trên các nhóm khác nhau, để đảm bảo rằng các nhóm dễ bị rủi ro được đối xử công bằng.
Ông nói: “Tính minh bạch và khả năng giải thích của các mô hình AI khiến chúng có nhiều khả năng được người dùng sử dụng và tin cậy hơn”.
AI và đạo đức nghề nghiệp
Một lĩnh vực quan trọng khác cần xem xét khi định hình chiến lược quản trị là đạo đức sử dụng AI. “Luật pháp chưa bắt kịp với công nghệ,” Ahmad nói. “Trách nhiệm của những người tạo ra hệ thống máy học là phải đánh giá nó phù hợp với các mục tiêu đạo đức. Khi cần đánh đổi, người ta nên thận trọng.”
Joe Tobolski, CTO tại công ty tư vấn dịch vụ kỹ thuật số Nerdery, nhận thấy các công ty ngày càng nhận thức được các mối nguy hiểm về đạo đức nghề nghiệp khi sử dụng AI. Rất ít công ty có quy tắc đạo đức AI rõ ràng để áp dụng cho các dự án AI, nguồn dữ liệu và việc sử dụng công nghệ của họ.
Cemex là một công ty cố gắng hạn chế việc sử dụng AI của mình để giảm thiểu các rủi ro đạo đức nghề nghiệp tiềm ẩn. Ví dụ, họ đang ưu tiên các dự án cải thiện dịch vụ và giúp đỡ khách hàng hơn những dự án có thể đơn giản là giảm số lượng nhân viên, Kaldero nói.
Ông nói: “Nhân viên là trung tâm của tổ chức – không phải công nghệ. “Chúng tôi có thể tự động hóa tất cả các trung tâm cuộc gọi của khách hàng, nhưng điều đó không có lợi cho chúng tôi. Cemex rất tự hào là nhà tuyển dụng mang đến cơ hội việc làm cho mọi người.”
Các dự án AI được lựa chọn để có tác động tích cực đến lực lượng lao động. Lấy ví dụ về sự an toàn. Kaldero nói: “Đó là một sáng kiến rất lớn đối với AI. “Cemex đã giảm thiểu tai nạn đáng kể, gần như bằng không. Và cách để đưa nó về 0 là thông qua nhận dạng hình ảnh ”.
Các chiến lược quản trị AI
Đối với Springfield, công ty bảo hiểm nhân thọ MassMutual có trụ sở tại Mass, quản trị bằng AI dựa trên một bộ nguyên tắc đạo đức dữ liệu ngày càng phát triển nhằm hướng dẫn các hành động và ra quyết định.
Sears Merritt, người đứng đầu bộ phận dữ liệu, chiến lược và kiến trúc của công ty cho biết: “Chúng tôi đặc biệt tạo ra một bộ nguyên tắc sử dụng AI để phát triển doanh nghiệp của mình phù hợp với các giá trị của công ty và lợi ích của các nhà hoạch định chính sách. “Chúng tôi cũng đã xây dựng một nhóm giám sát việc sử dụng AI thông qua việc tạo ra một khuôn khổ chính sách.”
MassMutual bắt đầu xem xét vấn đề đạo đức nghề nghiệp và quản trị AI khoảng một năm trước, khi công ty nhận ra rằng họ cần phải chứng minh và đảm bảo rằng họ đang sử dụng AI vì lợi ích của các chủ sở hữu chính sách.
Merritt hiện giám sát một nhóm sáu người, bao gồm các nhà tư vấn quản trị và đạo đức AI, những người theo dõi xem các thuật toán có tuân thủ các nguyên tắc quản trị hay không và chúng thay đổi như thế nào theo thời gian, tạo ra một cấu trúc chính thức cho các phương pháp mà công ty đã tuân theo.
Merrit cho biết: “Chúng tôi tin rằng công việc của chúng tôi có tác động to lớn đến tất cả các bên liên quan của chúng tôi”. .
Tiếp theo, ông nói, MassMutual có kế hoạch quảng bá khuôn khổ của nó như một phương pháp tốt nhất trong ngành.
Tầm quan trọng của hành lang bảo vệ
John Larson, SVP tại Booz Allen Hamilton, cho biết nhiều phương pháp hay xoay quanh việc quản trị AI. “Tôi đã làm việc này trong 25 năm,” anh nói. “Các nguyên tắc tương tự về cách bạn phát triển phần mềm, các thuật toán, chúng đã tồn tại trước đây. Nhưng thứ không tồn tại là tốc độ của dữ liệu, sức mạnh của quy trình và các thuật toán.”
Các hệ thống AI chứa các dữ liệu đào tạo, thường hoạt động với các bộ dữ liệu lớn hơn bao giờ hết và nhờ số hóa của các công ty ngày nay, dữ liệu đến từ các trang web, cảm biến mạng, thiết bị IoT và các nguồn khác với tốc độ chưa từng có.
Khả năng xử lý dữ liệu này cũng cao hơn đáng kể, phần lớn là nhờ tài nguyên đám mây có thể mở rộng quy mô một cách gần như không giới hạn.
Cuối cùng, bản chất phản hồi của một số hệ thống AI là việc chúng tự học theo cách riêng của chúng và những học hỏi đó có thể đưa chúng đi theo những hướng bất ngờ với tốc độ quá nhanh mà con người không thể phản ứng kịp.
Larson cho biết: “Các mô hình quản trị từ 25 năm trước – các nguyên tắc đều giống nhau, nhưng chúng không thể mở rộng theo những thách thức mà chúng ta đang phải đối mặt.
Ví dụ, các nhà phát triển có thể đặt hành lang bảo vệ. Nếu độ chính xác dự đoán của mô hình vượt quá mục tiêu được xác định trước hoặc mô hình ngừng hoạt động trong các thông số thiết kế, thì một số hình thức can thiệp có thể được thực hiện. Tương tự, nếu dữ liệu đi vào hệ thống không còn phản ánh các tính năng cần thiết, điều đó có thể đưa ra cảnh báo để đánh giá lại các nguồn dữ liệu hoặc để chọn một mô hình khác phù hợp hơn với dữ liệu đến.
Có nhiều cách khác để giám sát hệ thống AI. Ví dụ, kiểm tra các khuyến nghị cuối cùng về các mối tương quan bị cấm như chủng tộc, tuổi tác hoặc tôn giáo, có thể giúp giải quyết các vấn đề trước khi chúng dẫn đến các hệ quả không mong muốn như vi phạm quy định.
Larson nói: “Có những công cụ đã được phát triển – Google có chúng, Microsoft có chúng – có thể đánh giá liệu một mô hình có thiên vị so với một số điều nhất định hay không. “Tại Booz Allen, chúng tôi cũng đang phát triển một số bộ công cụ đó và đang cố gắng cung cấp các công cụ cho tất cả các nhà khoa học dữ liệu của chúng tôi”.
Cuối cùng, bất kỳ chương trình quản trị AI tốt nào cũng cần quyền sở hữu và trách nhiệm giải trình, Jessica Lee, đối tác và đồng chủ tịch về thực hành quyền riêng tư và bảo mật tại công ty luật Loeb & Loeb cho biết. “Ai sẽ chỉ đạo chương trình và chúng ta sẽ giải quyết những sai lầm như thế nào?”
Cô nói, không có gì đảm bảo rằng các công ty có thể tránh được những hậu quả không mong muốn từ các thuật toán, kết quả thiên vị hoặc phân biệt đối xử hoặc các tác hại khác. “Nhưng quản trị tốt chắc chắn có ích.”
Nguồn: Báo doanhnghiepthuonghieu