5B Phổ Quang, Phường 2, Quận Tân Bình, TPHCM
Giới thiệu

Trong 18 tháng qua, COVID-19 đã tác động mạnh mẽ đến tốc độ mà các doanh nghiệp kết hợp tự động hóa vào chiến lược chuyển đổi kỹ thuật số của họ, tuy nhiên, xu hướng tự động hóa đã đạt được tốc độ đáng kể trước khi đại dịch bùng phát. Một trong những sáng kiến kỹ thuật số phổ biến nhất, trong phạm vi tự động hóa, là tận dụng các giao diện AI hội thoại (CAI) tiên tiến cho phép các doanh nghiệp cung cấp các tương tác được cá nhân hóa đồng thời kết hợp hiệu quả hoạt động của tự động hóa đầu cuối.

Chúng tôi biết điều này có nghĩa là gì – khả năng tiếp cận dịch vụ tốt hơn; khả năng tương tác với khách hàng theo cách tự nhiên và giống như con người, bất kỳ lúc nào và trên kênh mà họ lựa chọn; và cơ hội tương tác với AI hội thoại và công nghệ giọng nói phản ứng với ngôn ngữ của con người với sự tiện lợi cao mà tự động hóa mang lại. 

Hạn chế nguy cơ bất bình đẳng

Tuy nhiên, cần phải cẩn thận để đảm bảo rằng các trải nghiệm mà tự động hóa cung cấp được cung cấp một cách có đạo đức và không có sự thiên vị.  Tiềm năng tự động hóa để thúc đẩy bất bình đẳng ảnh hưởng đến các lĩnh vực khác nhau của Trí tuệ nhân tạo (AI),  bao gồm cả AI hội thoại. CAI sử dụng ngôn ngữ tự nhiên để tạo điều kiện giao tiếp giữa con người và máy móc. CAI có rất nhiều ứng dụng trong thế giới thực, từ trợ lý thông minh đến ngôi nhà được điều khiển bằng giọng nói, trải nghiệm trong xe hơi và hệ thống lái xe tự động.  

Bất chấp những tiến bộ gần đây trong không gian, khả năng giao tiếp tự nhiên (hiểu ngữ cảnh, chia sẻ điểm chung với những người đối thoại của chúng tôi, yêu cầu làm rõ, nêu ý thức chung, v.v.) là một trong những hệ thống tự động chưa thành thạo: hệ thống hội thoại vẫn không hoàn toàn tự động. Chắc chắn, các mẫu máy biến áp mới được đào tạo trước như GPT-3 của OpenAi có thể hỗ trợ các cuộc trò chuyện nói chuyện nhỏ rất tự nhiên, nhưng liệu chúng có thể khắc phục sự cố với kết nối Internet của bạn theo cách hoàn toàn tự động, từ đầu đến cuối không? Và ngay cả khi họ có thể:  liệu các công ty có giao danh tiếng thương hiệu của họ cho các hệ thống thuần túy được điều khiển bởi AI không? 

Ai có thể ngờ rằng  Tay, bot Twitter không được giám sát của Microsoft , sẽ phát triển tính cách cực kỳ phản cảm chỉ sau 16 giờ tiếp xúc với các Tweet thực sự?

AI và tự động hoá ngày nay

Nhưng đó là năm 2016 – nâng cao nhận thức về vấn đề này, cũng như phát triển các kế hoạch và chương trình xung quanh việc đưa vào AI, là những điểm tiếp xúc chính trong vòng đời CAI ngày nay. 

Thông qua các chương trình chuyên dụng và các quyết định sáng suốt mà người dùng của chúng tôi có thể cảm thấy được bao gồm . Đây là lý do tại sao, ví dụ, Siri của Apple không còn mặc định là giọng nữ nữa. Trên thực tế, quyết định của Apple cho phép người dùng Siri tùy chọn giới tính ưa thích của họ tại thời điểm thiết lập là một ví dụ tuyệt vời về một quyết định sáng suốt chống lại những định kiến đã định trước. 

Tiểu thuyết gia nổi tiếng Nathaniel Hawthorne đã từng nói: “ Từ ngữ (…) chúng trở nên mạnh mẽ như thế nào đối với điều thiện và điều ác. “Sự thật là,  tự nhiên như ngôn ngữ đối với tất cả chúng ta, bởi vì nó vốn dĩ là của con người, nó cũng mang những thành kiến của chúng ta . Và, thật không may, điều này cũng đúng với các công nghệ đàm thoại và giọng nói.

 

Cho dù sự thiên vị bắt nguồn từ dữ liệu được đưa vào các quy trình tự động đằng sau các ứng dụng trò chuyện của chúng tôi, hay ở con người đã tạo ra chúng (nhà thiết kế, nhà phát triển và nhóm dự án nói chung), chú ý đến chính những thành kiến này, có chiến lược xung quanh chúng, là chìa khóa để ngăn chặn sự xâm nhập của chúng vào các sản phẩm mà chúng tôi tạo ra. 

Cho đến khi phát triển CAI, con người vẫn là công cụ. Các nhà thiết kế, nhà phát triển và người viết quảng cáo đều có ảnh hưởng đến tiếng nói của hệ thống của họ. Do đó,  điều quan trọng là người sáng tạo phải có quyền truy cập vào các công cụ và tài nguyên sẽ giúp họ xây dựng ứng dụng của mình một cách toàn diện .

Điều này có thể được thực hiện bằng cách  cho phép các nhà phát triển kiểm soát các khu vực có nguy cơ bất bình đẳng cao . 

Thông qua những hành động như vậy, các nhà thiết kế và nhà phát triển có thể ngăn chặn các hệ thống trở nên thiên vị, cũng như tạo ra các chiến lược trò chuyện chuyên dụng cho phép họ phản hồi những nhận xét phân biệt chủng tộc, bình luận bạo lực hoặc hàm ý phân biệt giới tính có thể đến từ người dùng.

FANPAGE

Youtube

Ứng dụng thực tiễn của AI hội thoại

Trên thực tế,  khi nói đến CAI và công nghệ giọng nói, việc cố ý quản lý các quá trình đào tạo và học tập  làm tăng cơ hội để các hệ thống hội thoại của chúng ta trở nên toàn diện và đa dạng hơn. Tự động hóa không được giám sát chắc chắn sẽ bị sai lệch bởi các mô hình và xu hướng được thấy trong dữ liệu.

Ví dụ: giao diện giọng nói có thể gặp khó khăn khi hiểu một giọng cụ thể nếu điều này được trình bày không đầy đủ trong dữ liệu được sử dụng để đào tạo trình nhận dạng giọng nói. Vì vậy, cuối cùng, dữ liệu cần phải đại diện cho sự đa dạng mà chúng tôi mong đợi sẽ tìm thấy trong số khán giả cuối cùng của chúng tôi, người dùng của chúng tôi. Nhưng cũng có nghĩa vụ đạo đức của các nhà phát triển là nghiên cứu các đặc điểm của người dùng và thực hiện các sửa đổi đối với hệ thống dựa trên phản ứng của họ đối với sản phẩm, điều thường đạt được thông qua thử nghiệm của người dùng (hoặc thử nghiệm các yếu tố con người). 

Về vấn đề này,  nghiên cứu và kiểm tra yếu tố con người đều dẫn đến con đường hướng tới sự hòa nhập . Những thành kiến ​​vốn dĩ là vô hình đối với những người chịu chúng, vì vậy những tiếng nói bên ngoài, đa dạng và đại diện cần phải hiện diện trước, trong và sau quá trình phát triển, để chúng tôi có thể đảm bảo hệ thống của mình sẽ được tôn trọng, đa dạng và hòa nhập về phía trước. 

Kết luận

Tóm lại, hãy đảm bảo rằng các nhóm của chúng ta được thông báo, nhận thức được những sai lệch trong dữ liệu, trong thiết kế của họ, trong việc triển khai của họ; và được đào tạo để ngăn chặn chúng vì cuối cùng nhận thức này đã mở đường cho sự đa dạng, hòa nhập và bình đẳng thực sự trong AI. 

REFERENCE:

George Brown (April 18, 2022), How can AI and automation address the risk of inequalities and be used correctly?, from https://www.artificial-solutions.com/blog/automation-ai-addressing-inequality

Related Posts

Privacy Preferences
When you visit our website, it may store information through your browser from specific services, usually in form of cookies. Here you can change your privacy preferences. Please note that blocking some types of cookies may impact your experience on our website and the services we offer.