Đây là cách Apple bảo vệ con bạn!

--
Web Techviewz có bài: Đây là cách Apple bảo vệ con bạn! Mới đây, Apple đã công bố chính thức các biện pháp bảo vệ mới cho sự an toàn của trẻ em, bao gồm các tính năng iMessage, quét ảnh iCloud,…

Mới đây, Apple đã công bố chính thức các giải pháp bảo quản mới cho sự an toàn của trẻ em, cho dù là các tính năng iMessage, quét ảnh iCloud,…

Vào ngày 5/8 vừa qua, Apple đã công bố 3 nỗ lực mới để bảo quản trẻ em khi dùng iPhone, iPad và Mac. Cụ thể, động thái này cho dù là các tính năng bảo vệ trẻ em trong Tin nhắn – Messages, nâng cao khả năng phát giác nội dung Lạm dụng và xâm hại tình dục ở trẻ con (CSAM – Child Sexual Abuse Material) trong iCloud và cập nhật bảo vệ cho Siri và Tìm kiếm – Search.

Đây là cách Apple bảo vệ con bạn!            

Ảnh minh họa.

Apple nhấn mạnh, việc “bảo vệ trẻ nhỏ là một trách nhiệm quan trọng”. Với suy nghĩ đó, công ty khẳng định những nỗ lực này sẽ được “phát triển và mở rộng theo thời gian”.

Tin nhắn – Messages

Apple cho hay, khi một đứa trẻ trong Gia đình iCloud – Family iCloud nhận hoặc gắng gượng gửi những bức hình khiêu dâm, chúng sẽ thấy một thông báo cảnh báo. Cụ thể, các hình ảnh khiêu dâm sẽ bị che mờ và ứng dụng Tin nhắn sẽ hiển thị cảnh báo hình ảnh “có thể nhạy cảm” – may be sensitive. Nếu trẻ nhấn vào “Xem ảnh” – View Photo, chúng sẽ thấy một thông báo bật lên, cho chúng biết nguyên do tại sao hình ảnh được cho là nhạy cảm.

Đây là cách Apple bảo vệ con bạn!            

Ảnh minh họa.

Cửa sổ bật lên sẽ giải thích, nếu đứa trẻ quyết định xem hình ảnh, phụ huynh trong Family iCloud sẽ nhận được thông báo “để đảm bảo rằng bạn ổn”. Cửa sổ bật lên cũng sẽ bao gồm một liên kết nhanh để nhận thêm trợ giúp. Apple cho biết, trẻ nhỏ sẽ được cảnh báo trước lúc bức ảnh được gửi đi và cha mẹ có thể nhận được lời nhắn nếu đứa trẻ chọn gửi đi, đối với trẻ nhỏ dưới 13 tuổi.

Apple lý giải thêm, Messages sử dụng công nghệ học máy – machine learning trên thiết bị để phân tích tệp đính kèm hình ảnh và mang ra quyết định xem một bức ảnh có nội dung khiêu dâm hay không. iMessage vẫn được mã hóa đầu cuối và Apple không có quyền truy cập vào bất kỳ lời nhắn nào.

Tính năng này sẽ ra mắt “vào cuối năm nay cho những tài khoản được thiết lập gia đình trong iCloud” trong số bản cập nhật lên iOS 15, iPadOS 15 và macOS Monterey. Tính năng sẽ được khởi động trước tại Mỹ.

Phát hiện CSAM

Cùng với đó, “Táo Khuyết” đang ban bố các bước mới để phát hiện nội dung CSAM. Tính năng này sẽ cho phép Apple phát hiện các hình ảnh CSAM khi chúng được lưu giữ trong iCloud Photos. Sau đó, Apple có thể báo cáo các trường hợp của CSAM cho Trung tâm Quốc gia về Trẻ em Mất tích và Bị bóc lột (National Center for Missing and Exploited Children), một tổ chức hoạt động như một bộ phận báo cáo toàn diện về CSAM và hợp tác chặt chẽ với cơ quan thực thi pháp luật.

Đây là cách Apple bảo vệ con bạn!            

Ảnh minh họa.

Apple liên tục nhấn mạnh, phương pháp phát giác CSAM được thiết kế với sự lưu ý đến quyền riêng tư của người dùng. Về cơ bản, các hình ảnh trên thiết bị sẽ được phân tích để xem chúng có trùng hợp nào với cơ sở dữ liệu về các hình ảnh CSAM đã biết do Trung tâm Quốc gia về Trẻ em Mất tích và Bị bóc lột cung cấp hay không.

Tất cả các đối sánh đều được thực hành trên thiết bị nhưng Apple chỉ phân tích ảnh được lưu giữ trong iCloud Photos. Hình ảnh được lưu trữ cục bộ không tham dự vào quá trình này. “Táo Khuyết” cho biết thêm, hệ thống trên thiết bị quan trọng và bảo quản quyền riêng tư hơn so với quét dựa theo đám mây vì nó chỉ báo cáo những người dùng có hình ảnh CSAM.

Siri và Tìm kiếm – Search

Cùng với đó, Apple cũng đã và đang mở rộng hướng dẫn trong Siri và Tìm kiếm bằng phương pháp cung cấp các tài nguyên bổ sung để giúp trẻ con và cha mẹ luôn an toàn khi truy cập trực tuyến và nhận trợ giúp trong các trường hợp không an toàn. Ví dụ: người dùng cũng có thể hỏi Siri về cách họ có thể báo cáo CSAM.

Đây là cách Apple bảo vệ con bạn!            

Ảnh minh họa.

Siri và Search cũng đang được cập nhật để can thiệp khi người dùng thực hiện tìm kiếm các truy vấn liên quan đến CSAM. Những giải pháp can thiệp này sẽ lý giải cho người dùng là có hại và cung cấp tài nguyên từ những đối tác để nhận trợ giúp.

Các bản cập nhật cho Siri và Tìm kiếm sẽ ra mắt vào cuối năm nay trong bản cập nhật cho iOS 15, iPadOS 15, watchOS 8 và macOS Monterey.

Động thái trên của Apple nhận được khá nhiều sự đồng thuận từ phía các chuyên gia trong ngành và nhiều quan chức chính phủ.

Ông David Forsyth, Trưởng Khoa Khoa học Máy tính tại Đại học Illinois, Đại học Kỹ thuật Urbana-Champagne nhận định: “Cách tiếp cận của Apple để bảo quản quyền riêng tư tốt hơn mọi hình thức hiện có. Theo đánh giá của tôi, hệ thống này sẽ giúp tăng lượng người dùng hoặc lưu lượng truy cập trong [CSAM] được tìm thấy; điều ấy sẽ giúp bảo vệ trẻ em”.

Nguồn: http://danviet.vn/day-la-cach-apple-bao-ve-con-ban-502021785582385.htm Nguồn: http://danviet.vn/day-la-cach-apple-bao-ve-con-ban-502021785582385.htm

Apple, bảo vệ trẻ em, iMessage, iCloud, iPhone, iPad, Mac, Family iCloud, CSAM, iOS, iOS 15, iPadOS 15, watchOS 8, macOS Monterey, tin tuc cong nghe, cong nghe, cong nghe thong tin, tin tuc 24h

Nội dung Đây là cách Apple bảo vệ con bạn! được tổng hợp sưu tầm biên tập bởi: techviewz.org. Mọi ý kiến vui lòng gửi Liên Hệ cho techviewz.org để điều chỉnh. techviewz.org tks.

Bài Viết Liên Quan


Bài Viết Khác

--