5B Phổ Quang, Phường 2, Quận Tân Bình, TPHCM

Các nhà nghiên cứu trí tuệ nhân tạo — một số người trong số họ có liên kết với công ty mẹ của Facebook là Meta và Đại học Cornell — đã sử dụng hơn 7 triệu bức ảnh trên mạng xã hội công khai, được định vị địa lý từ Instagram và Flickr để xây dựng thứ mà họ gọi là “ bản đồ thời trang ngầm” trải dài 37 thành phố . Bản đồ có thể hiển thị các nhóm người trong thành phố, bao gồm các khu vực “hợp thời trang” hoặc “tiến bộ” nhất và được xây dựng dựa trên một công cụ AI do Amazon tài trợ có tên GeoStyle để dự báo xu hướng thời trang, theo một thông cáo báo chí về nghiên cứu.

“Một người không quen thuộc với một thành phố có thể tìm ra những khu vực lân cận có thể thích hợp để họ đến thăm, chẳng hạn như để thỏa mãn sở thích về các hoạt động ngoài trời so với mua sắm và các khu du lịch,” các nhà nghiên cứu viết trong một báo cáo mới xuất bản được hoàn thành như một phần của kỳ thực tập với Nghiên cứu AI của Facebook. Họ cũng tuyên bố các nhà nhân chủng học có thể tận dụng các bản đồ để suy ra các xu hướng trong một thành phố theo thời gian.

Dự án liên kết với Facebook và Amazon đặt ra câu hỏi lớn hơn về những cách bất ngờ mà các công ty công nghệ sử dụng dữ liệu cá nhân, thường mà không thông báo rõ ràng cho người dùng.

Tamara Berg, đồng tác giả của báo cáo và là giám đốc của Meta AI – trung tâm nghiên cứu trí tuệ nhân tạo của Facebook – đã không trả lời câu hỏi của Motherboard về khả năng sử dụng dữ liệu của Facebook hoặc liệu người dùng Instagram và Flickr có biết rằng ảnh của họ đang được sử dụng để xây dựng bản đồ thời trang.

Khi được liên hệ, người phát ngôn của Đại học Cornell đầu tiên nói rằng “các nhà nghiên cứu không liên kết, cũng không làm việc với Facebook,” nhưng sau đó thừa nhận rằng một số người tham gia dự án là nhân viên của Facebook, bao gồm một nhà nghiên cứu từng là thực tập sinh của Facebook. khi bắt đầu dự án.

Đồng tác giả nghiên cứu Kavita Bala, giáo sư và chủ nhiệm khoa học máy tính tại Đại học Cornell, đã phát triển các sản phẩm được Facebook sử dụng trước đây. Năm 2020, Facebook mua lại GrokStep , một công ty khởi nghiệp nhận dạng sản phẩm dựa trên AI do cô đồng sáng lập.

Jathan Sadowski, một nhà nghiên cứu và giáo sư về các khía cạnh xã hội của trí tuệ nhân tạo, cho biết trường hợp sử dụng rõ ràng đối với lập bản đồ xã hội được hỗ trợ bởi trí tuệ nhân tạo sẽ là để Facebook và các công ty khác tinh chỉnh thêm các quảng cáo được nhắm mục tiêu theo nhân khẩu học và địa lý.

Nhưng những tác động tiềm ẩn liên quan đến nghiên cứu lập bản đồ xã hội vượt ra ngoài việc quảng cáo có mục tiêu cho quần áo mới, ông nói. Sadowski nói với Motherboard: “Mối quan tâm trước mắt của tôi là về việc sử dụng các phân tích dữ liệu như vậy trong lĩnh vực tài chính, bảo hiểm và bất động sản. “Đây là những ngành có lịch sử lâu dài về việc sử dụng ‘dữ liệu thay thế’ để cung cấp thông tin cho việc ra quyết định và biện minh cho các quyết định phân biệt đối xử. Thường là proxy cho các danh mục được bảo vệ khác như chủng tộc, giới tính và giai cấp. “

Chương trình nhắm mục tiêu quảng cáo của Facebook đã nhiều lần bị chỉ trích vì các hoạt động phân biệt đối xử. Trong nhiều năm, quảng cáo trên nền tảng của Facebook cho phép các công ty loại trừ một số nhóm giới tính và chủng tộc khỏi việc tìm hiểu về các cơ hội có nhà ở và việc làm, theo đơn kiện của ACLU , Liên minh Nhà ở Công bằng Quốc gia và các nhóm khác.

“Khi ngày càng có nhiều người chuyển sang sử dụng Internet để tìm việc làm, căn hộ và các khoản vay, sẽ có nguy cơ thực sự là nhắm mục tiêu theo quảng cáo sẽ tái tạo và thậm chí làm trầm trọng thêm các thành kiến về chủng tộc và giới tính hiện có trong xã hội,” ACLU viết trong một bài đăng trên blog về việc giải quyết vụ kiện . “Cho dù bạn gọi đó là trang web, phân biệt đối xử theo thuật toán hay bất bình đẳng tự động , thì rõ ràng là sự gia tăng của dữ liệu lớn và tiếp thị được cá nhân hóa cao mà nó cho phép đã dẫn đến các hình thức phân biệt mới này.”

Trong khi Facebook tuyên bố đã ngừng cho phép các nhà quảng cáo về nhà ở, việc làm và tín dụng nhắm mục tiêu người dùng dựa trên danh mục chủng tộc, các nhà nghiên cứu của Viện Brookings nhận thấy các thuật toán của Facebook vẫn phân biệt đối xử dựa trên chủng tộc và sắc tộc như năm ngoái.

Vào tháng 9 năm 2020, Bộ Nhà ở và Phát triển Đô thị (HUD) của chính quyền Trump đã ban hành quy tắc cuối cùng nới lỏng tiêu chuẩn tác động phân biệt đối xử của Đạo luật Nhà ở Công bằng (FHA), mà các nhà phê bình cho rằng đã biện minh về mặt pháp lý cho việc sử dụng các thực hành thuật toán phân biệt đối xử. Vào tháng 6 năm 2021, HUD đề xuất khôi phục tiêu chuẩn . Tuy nhiên, các công ty bảo hiểm từ lâu đã phân biệt đối xử, bất chấp các quy định, bằng cách che giấu các phân loại rủi ro bằng số liệu thống kê và mô hình toán học .

Sadowski cho biết anh có thể dễ dàng hình dung các công ty công nghệ tài chính hoặc công nghệ bảo hiểm sử dụng dữ liệu bản đồ thời trang để kết luận rằng xu hướng thời trang cụ thể phổ biến trong giới trẻ Da đen tương quan với rủi ro tài chính hoặc giá trị tài sản giảm.

Ông nói: “Nhưng không giống như việc phân loại lại, nguồn dữ liệu và phương pháp phân tích đã bị rửa sạch bằng AI, khiến cho sự phân biệt proxy bị loại bỏ một vài lớp. “Vì vậy, sự từ chối hợp lý — hoặc một lời xin lỗi dễ dàng — cho những người cần nó.”

Nguồn: Vice.com

 

 

fanpage

Youtube

Privacy Preferences
When you visit our website, it may store information through your browser from specific services, usually in form of cookies. Here you can change your privacy preferences. Please note that blocking some types of cookies may impact your experience on our website and the services we offer.