蘋果禁止搞黃色,iOS 17 自動屏蔽裸照。

眾所周知,由於 iOS 獨特的封閉式系統,iPhone 在安全性和隱私性方面,受到用戶的一致好評。

不過大家也都知道,近兩年 iPhone 也沒少沾染「桃色」新聞。

比如上個月,就有用戶反映收到很多莫名其妙的短信,內容為涉黃或者涉賭。

再往前,還有女子在地鐵上收到了陌生人的「隔空投送」,內容為不雅圖片,已經涉嫌性騷擾。

而 App Store 中,也經常會出現偽裝套殼的色情 App,曾遭到大量網友的吐槽。

蘋果禁止搞黃色,iOS 17 自動屏蔽裸照。

看來一向主打封閉和安全的 iOS,也並非「滴水不漏」,因為只要是系統,總會存在漏洞。

不過蘋果並沒有「袖手旁觀」,也給出了解決辦法。

針對不法分子利用 AirDrop 性騷擾的行為,蘋果已經在 iOS 16.2 正式版中關閉了「所有人」選項,僅提供為所有人開啟十分鐘的權限。

開啟該功能十分鐘後,隔空投送會自動切回「僅限聯系人」模式。

6 月 6 日,蘋果發佈了全新的 iOS 17 系統,帶來了包括橫屏待機、個性來電、NameDrop 等一系列新特性。

除此之外,蘋果還新增了一項「自動屏蔽敏感信息」功能。

通過這項功能,iOS 可以自動識別和屏蔽一些敏感信息,比如裸照和色情內容。

用戶可以選擇開啟該功能,以避免不小心收到辣眼睛的圖片。

換句話說,以前有 FBI warning ,現在 iPhone 上也有「Apple warning」了。

開啟後,如果用戶收到了敏感照片,系統就會自動對其進行模糊處理。

如果用戶想要查看的話,需要再次手動點擊右下角的「顯示」,才可查看完整圖片。

多了一道保險,就能防止在公共場合突然社死,畢竟不小心打開澀圖還有挽回的餘地。

這項功能,其實和 Twitter 的審核機制差不多,在 Twitter 上瀏覽到大尺度圖片時,系統也會做出類似的處理。

不過兩者還是有所區別的,一個是在設備端處理,一個是在服務器端處理。

蘋果表示,這項功能所用到的所有檢測是在設備上完成的,蘋果公司無法查看用戶之間分享的內容。

如此一來,蘋果這邊則顯得更為安全。

據悉,iOS 17 上的這項功能,是蘋果公司去年為兒童推出的通信安全功能的一項擴展。

早在 2021 年,蘋果就曾發佈了一份新的「兒童保護擴展」白皮書。

其中有一項功能,就是系統會掃描 13 歲以下兒童手機中的照片,然後將檢測到的兒童敏感內容發送給執法部門。

與此同時,未成年人賬戶的 iMessage,也會被受到重點監測。

一方面,該功能可以阻止未成年人賬戶收到裸照之類的敏感照片,保護未成年人的身心健康。

另一方面,如果未成年人試圖通過 iMessage 發送露骨照片,也會被系統警告。

如今,這項功能的適用場景以及針對人群,迎來了更大范圍的測試。

截至目前,這項功能已適用於信息、AirDrop、電話應用的聯系人海報《Contact Poster》、FaceTime 信息和第三方應用。

說到這裡,上面適用場景裡的「第三方應用」,就有點耐人尋味了。

難不成,以後用戶自己私下用 iPhone 觀看「學習資料」,也要被「Apple warning」了 ?

總感覺有點怪怪的,你認為呢?