Adobe – Nhà phân tích Forrester cung cấp 3 nguyên tắc cho ‘AI có đạo đức’

Khi các doanh nghiệp tăng cường sử dụng trí tuệ nhân tạo (AI), các nhà lãnh đạo tiếp thị và CX phải đảm bảo nhóm của họ đang xây dựng các hệ thống AI không thiên vị, công bằng và có trách nhiệm về mặt đạo đức, không vô tình vượt qua bất kỳ ranh giới quy định nào hoặc có thể tệ hơn là khiến khách hàng mất hứng thú.

Brandon Purcell, nhà phân tích chính tại Forrester, cho biết trong một phiên họp tại hội nghị ảo CX Bắc Mỹ của công ty vào tháng trước: “Thế giới trong tương lai sẽ tràn ngập trí tuệ nhân tạo” . “Trí tuệ nhân tạo ngày càng đưa ra một số quyết định rất quan trọng về quyền tự do, sinh kế, sức khỏe và khả năng tiếp cận tín dụng của con người, và vì vậy chúng ta cần phải hết sức thận trọng trong cách tạo ra những hệ thống này.”

Purcell cho biết thêm, một số thực thể khác nhau, từ các tập đoàn, chính phủ đến các nhóm ngành, đã có “khung AI đạo đức của riêng họ biểu thị các nguyên tắc mà họ muốn hướng tới trong việc tạo ra AI”. Ông nói, những khuôn khổ này chia sẻ ba nguyên tắc chính: ngăn chặn sự công bằng và thiên vị, sự tin cậy và minh bạch cũng như trách nhiệm giải trình.

Nguyên tắc số 1: Ngăn ngừa sự công bằng và thiên vị

Nghiên cứu của Forrester cho thấy mọi người sẽ rời bỏ một thương hiệu nếu họ biết hệ thống AI của họ đang đưa ra những quyết định thiên vị hoặc phân biệt đối xử với bất kỳ ai, Purcell cho biết.

Không phải Purcell cho rằng các công ty đang cố tình xây dựng hệ thống AI một cách thiên vị. Vậy làm thế nào để một thuật toán học máy trở nên sai lệch ngay từ đầu?

Có hai cách, Purcell giải thích. Sai lệch đầu tiên, về mặt thuật toán, xảy ra khi một tập dữ liệu không đại diện cho toàn bộ tổng thể. Ví dụ: tập dữ liệu đào tạo nhận dạng khuôn mặt chỉ dành cho những người có mái tóc nâu sẽ không hoạt động hiệu quả khi phân tích những người có mái tóc vàng hoặc đỏ.

Ông nói: “Giải pháp ở đây là dành cho các nhà khoa học và nhà phát triển dữ liệu cố gắng tìm ra cái mà họ gọi là ‘dữ liệu IID’ – dữ liệu được phân phối độc lập và có thể xác định được – phản ánh sự phân bổ và đa dạng của thế giới thực”.

Cách thứ hai là sự thiên vị của con người và đó là “một vấn đề nguy hiểm hơn”, Purcell nói. “Là một loài, chúng ta đã không đặc biệt công bằng với nhau trong suốt lịch sử của mình và sự bất bình đẳng này thực sự đã được hệ thống hóa trong dữ liệu. Khi chúng tôi sử dụng dữ liệu này để dạy thuật toán học máy thực hiện công việc của mình, nó sẽ không chỉ đưa ra những quyết định bất công tương tự mà còn thực hiện ở quy mô mà trước đây không thể thực hiện được khi con người đưa ra những quyết định đó.”

Ông nói, giải pháp là “sửa đổi dữ liệu đào tạo hoặc sửa đổi công cụ triển khai theo cách phản ánh kết quả công bằng và bình đẳng hơn”.

Bản thân điều đó đòi hỏi một cách tiếp cận nhiều mặt dựa trên sự đa dạng về quan điểm của tổ chức – từ các nhà khoa học dữ liệu, đến các ngành nghề kinh doanh, đến cấp điều hành – cũng như khách hàng.

“[Có] 22 định nghĩa khác nhau về sự công bằng và hy vọng bạn hiểu được sự khó khăn khi chỉ nói, ‘Được rồi, chúng tôi muốn công bằng’,” Purcell chỉ ra. “Bạn thực sự cần xác định các tiêu chuẩn công bằng cho từng trường hợp sử dụng cho các nhà khoa học và nhà phát triển dữ liệu của mình.”

Nguyên tắc số 2: Tin cậy và minh bạch

Purcell cho biết, nhiều dự án AI thất bại vì AI được tạo ra như một hộp đen và các bên liên quan đến doanh nghiệp sẽ sử dụng hệ thống không tin tưởng vào nó. Ông nói: “Sử dụng AI có thể hiểu được hoặc có thể giải thích được là một cách khơi dậy niềm tin.

Nhưng các tổ chức đang phải đánh đổi giữa tính chính xác và tính minh bạch, Purcell cho biết. Tóm lại, độ chính xác càng cao – ông đã sử dụng ví dụ về việc xác định phê duyệt tín dụng của một người bằng thuật toán học máy (học cách đưa ra dự đoán từ dữ liệu) so với mạng thần kinh (trong đó thuật toán xử lý tín hiệu thông qua các nút được kết nối với nhau, nhiều giống như bộ não của chúng ta) – việc giải thích càng trở nên phức tạp hơn.

Ông nói: “Trong một số trường hợp, đặc biệt là khi bạn có đủ dữ liệu, mạng thần kinh sẽ chính xác hơn so với các mạng tiền thân về học máy khác,” nhưng chúng cũng thiếu tính minh bạch trong các lớp đầu vào của mình. “Bạn không thể mở nắp mạng lưới thần kinh và xem quyết định được đưa ra như thế nào.”

Khi bắt tay vào một dự án AI, Purcell đề xuất sử dụng lưới hai nhân hai (bên dưới) để xem xét rủi ro đối với công ty khi đưa ra quyết định sai so với mức độ quan trọng của độ chính xác.

Ông nói thêm: “Đây không phải là bài tập chỉ làm một lần là xong. “Bạn muốn đảm bảo rằng bạn liên tục đáp ứng các yêu cầu về tính minh bạch và ‘khả năng giải thích’ cho từng trường hợp sử dụng khi bạn đang sử dụng trí tuệ nhân tạo.”

Nguyên tắc số 3: Trách nhiệm giải trình

Theo nghiên cứu của Forrester, chỉ 20% công ty cho biết họ đang xây dựng hệ thống AI của riêng mình từ đầu. Trong khi đó, 51% cho biết họ đang xây dựng hệ thống của mình bằng cách sử dụng các thành phần của bên thứ ba – “giống như một loạt các khối Lego,” Purcell nói – và 48% đang mua các giải pháp đóng gói có sẵn trên thị trường với AI được nhúng trong đó.

Đang có vấn đề? “Bất cứ khi nào bạn mua, bạn đều đang xây dựng AI của riêng mình hoặc mua AI từ bên thứ ba. Điều đó gây ra rủi ro cho bên thứ ba và rủi ro của bên thứ ba có thể sa thải AI của bạn,” Purcell nói.

Nói cách khác, nếu một phần của hệ thống – “với tất cả các thành phần lồng vào nhau, phụ thuộc lẫn nhau và tương tác theo những cách phức tạp” – gặp trục trặc, thì việc xác định thành phần hoặc thực thể cụ thể nào chịu trách nhiệm có thể khá khó khăn.

Đó là lý do tại sao việc thẩm định nghiêm ngặt của bên thứ ba là cần thiết, có nghĩa là “lựa chọn đối tác và nhà cung cấp chia sẻ giá trị và hiểu không gian của bạn, những người hiểu ý nghĩa đạo đức của việc sử dụng các thành phần AI hoặc công nghệ AI của họ để đưa ra các quyết định quan trọng cho doanh nghiệp của bạn, [điều đó cũng] tác động đến khách hàng của bạn,” Purcell nói. “Thực hiện thẩm định một cách công bằng và thường xuyên.”

Tại Adobe, chúng tôi tin rằng mọi người đều xứng đáng được tôn trọng và đối xử bình đẳng, đồng thời chúng tôi cũng sát cánh cùng cộng đồng Da đen chống lại sự thù ghét, không khoan dung và phân biệt chủng tộc. Chúng tôi sẽ tiếp tục hỗ trợ, nâng cao và khuếch đại những tiếng nói đa dạng thông qua cộng đồng nhân viên, nhà sáng tạo, khách hàng và đối tác của chúng tôi. Chúng tôi tin rằng Adobe có trách nhiệm thúc đẩy sự thay đổi và đảm bảo rằng mọi cá nhân đều có cảm giác thân thuộc và hòa nhập. Chúng ta phải đứng lên và lên tiếng chống lại sự bất bình đẳng và bất công về chủng tộc. Đọc thêm về những hành động chúng tôi đang thực hiện để tạo ra sự thay đổi lâu dài bên trong và bên ngoài công ty.

Chúng tôi cũng biết nhiều người vẫn bị ảnh hưởng bởi cuộc khủng hoảng COVID-19 hiện tại và chúng tôi luôn hướng về bạn. Toàn bộ nhóm Adobe muốn cảm ơn bạn, khách hàng của chúng tôi và tất cả những người sáng tạo trên khắp thế giới vì công việc bạn làm để truyền cảm hứng cho chúng tôi trong thời gian khó khăn này.

Nguồn: https://business.adobe.com/blog/basics/forrester-analyst-provides-3-principles-for-ethical-ai

spot_img

More from this stream

Recomended

Cập Nhật Google Analytics Quý 2/2024

Bài viết này cung cấp thông tin về các bản phát hành mới nhất trong Google Analytics trong quý 2 năm 2024.

[GA4] – Hiểu rõ về nguồn dữ liệu

Một nguồn dữ liệu là một nơi chứa dữ liệu bạn tải lên Analytics, bao gồm cơ sở dữ liệu, dịch vụ, hoặc tệp CSV bạn tải lên và một ánh xạ của các trường dữ liệu Analytics với các trường trong cơ sở dữ liệu, dịch vụ hoặc CSV bên ngoài của bạn.

Segment là gì?

Segment là một traditional Customer Data Platform (CDP) chuyên về việc thu thập sự kiện và kích hoạt dữ liệu.

Composable CDP là gì?

Composable CDP là một lớp kích hoạt cho phép bạn tạo ra đối tượng khán giả, điều phối hành trình, và gửi dữ liệu hiện tại của bạn đến các công cụ tiếp thị hàng đầu của bạn.

Traditional CDP và Composable CDP

Việc áp dụng rộng rãi của hệ thống lưu trữ dữ liệu đám mây đã cách mạng hóa không gian Customer Data Platform (CDP), dẫn đến sự xuất hiện của một kiến trúc CDP mạnh mẽ hơn, nguyên gốc từ hệ thống lưu trữ dữ liệu đám mây được biết đến là Composable CDP.

Customer Data Platform (CDP) là gì?

Một Customer Data Platform, hay CDP, là một giải pháp hoặc kiến trúc cho phép bạn thu thập, lưu trữ, mô hình hóa và kích hoạt dữ liệu khách hàng của bạn.