CUPERTINO, California (NV) – Apple hôm Thứ Năm, 5 Tháng Tám, loan báo sẽ bắt đầu thử hệ thống mới để ngăn chặn hình ảnh lạm dụng tình dục trẻ em trên iPhone và iCloud, theo CNN.
Hệ thống “neuralMatch” sẽ tự động chuyển hình ảnh lưu trên điện thoại thành một bộ “hash” không đọc được – tức là những con số phức tạp, công ty giải thích trong buổi họp báo.

Những con số đó sẽ được so với kho dữ liệu hình ảnh lạm dụng tình dục trẻ em mà Trung Tâm Quốc Gia Trẻ Em Mất Tích và Bị Bóc Lột (NCMEC) cung cấp.
Nếu xác nhận đó là hình khiêu dâm trẻ em, Apple sẽ chặn tài khoản (account) của khách hàng và thông báo cho NCMEC.
Qua hệ thống này, Apple đang làm theo vài công ty công nghệ lớn khác như Google và Facebook. Tuy nhiên, Apple cũng đang cố gắng giữ cân bằng giữa an toàn với quyền riêng tư, mà Apple luôn nhấn mạnh quyền riêng tư là ưu thế sản phẩm của họ.
Trong thông báo trên trang web Apple, họ cho hay: “Khi thiết kế hệ thống này, Apple rất lưu ý quyền riêng tư của khách hàng.”
Apple nhấn mạnh hệ thống này chỉ chặn hình ảnh nằm trong kho dữ liệu hình lạm dụng tình dục trẻ em của NCMEC. Như vậy nghĩa là cha mẹ không cần lo lắng khi chụp hình con còn nhỏ đang tắm.
Các tổ chức bảo vệ trẻ em hoan nghênh hệ thống của Apple, nhưng một số tổ chức ủng hộ quyền riêng tư thì bày tỏ lo ngại hệ thống này sẽ bị sử dụng sai, chẳng hạn được chính quyền dùng để theo dõi người dân.
NGUOIVIET ONLINE NEWS