Systém CSAM společnosti Apple byl oklamán, ale společnost má dvě pojistky

Aktualizace: Apple zmínil druhou inspekci serveru a profesionální společnost zabývající se počítačovým viděním nastínila možnost, co by to mohlo být popsáno v části „Jak by mohla fungovat druhá inspekce“ níže.
Poté, co vývojáři reverzně upravili jeho části, byla raná verze systému Apple CSAM účinně oklamána, aby označila nevinný obrázek.Apple však uvedl, že má další pojistky, aby se tak nestalo v reálném životě.
Nejnovější vývoj nastal poté, co byl algoritmus NeuralHash zveřejněn na open source vývojářském webu GitHub, experimentovat s ním může každý…
Všechny systémy CSAM fungují tak, že importují databázi známých materiálů o sexuálním zneužívání dětí od organizací, jako je Národní centrum pro pohřešované a zneužívané děti (NCMEC).Databáze je poskytována ve formě hashů nebo digitálních otisků prstů z obrázků.
Ačkoli většina technologických gigantů skenuje fotografie nahrané v cloudu, Apple používá algoritmus NeuralHash na iPhonu zákazníka ke generování hodnoty hash uložené fotografie a poté ji porovnává se staženou kopií hodnoty hash CSAM.
Včera vývojář tvrdil, že provedl reverzní inženýrství algoritmu společnosti Apple a uvolnil kód na GitHub - toto tvrzení bylo společností Apple účinně potvrzeno.
Během několika hodin po vydání GitHibu vědci úspěšně použili algoritmus k vytvoření záměrného falešně pozitivního výsledku - dvou zcela odlišných obrázků, které generovaly stejnou hodnotu hash.Tomu se říká srážka.
U takových systémů vždy hrozí kolize, protože hash je samozřejmě značně zjednodušená reprezentace obrázku, ale je s podivem, že někdo dokáže obrázek vygenerovat tak rychle.
Zdejší záměrná kolize je jen důkazem konceptu.Vývojáři nemají přístup k databázi hash CSAM, což by vyžadovalo vytváření falešných poplachů v systému reálného času, ale dokazuje to, že kolizní útoky jsou v zásadě relativně snadné.
Apple účinně potvrdil, že algoritmus je základem jeho vlastního systému, ale řekl základní desce, že toto není konečná verze.Společnost také uvedla, že nikdy neměla v úmyslu zachovat důvěrnost.
Apple v e-mailu sdělil Motherboard, že verze analyzovaná uživatelem na GitHubu je generická verze, nikoli konečná verze používaná pro detekci CSAM na iCloud Photo.Apple uvedl, že také odhalil algoritmus.
„Algoritmus NeuralHash [...] je součástí podepsaného kódu operačního systému [a] bezpečnostní výzkumníci mohou ověřit, že jeho chování odpovídá popisu,“ napsal dokument společnosti Apple.
Společnost dále uvedla, že existují dva další kroky: spuštění sekundárního (tajného) systému porovnávání na vlastním serveru a ruční kontrola.
Apple také uvedl, že poté, co uživatelé překročí hranici 30 zápasů, zkontroluje výsledky druhý neveřejný algoritmus běžící na serverech společnosti Apple.
"Tento nezávislý hash byl vybrán, aby odmítl možnost, že chybný NeuralHash odpovídá zašifrované databázi CSAM v zařízení kvůli nepřátelské interferenci obrázků, které nejsou CSAM, a překračuje práh shody."
Brad Dwyer z Roboflow našel způsob, jak snadno rozlišit mezi dvěma obrázky zveřejněnými jako důkaz konceptu kolizního útoku.
Jsem zvědavý, jak tyto obrázky vypadají v CLIPu podobného, ​​ale odlišného extraktoru neuronových funkcí OpenAI.CLIP funguje podobně jako NeuralHash;vezme obrázek a pomocí neuronové sítě vygeneruje sadu příznakových vektorů, které se mapují na obsah obrázku.
Síť OpenAI je ale jiná.Je to obecný model, který umí mapovat mezi obrázky a textem.To znamená, že pomocí něj můžeme extrahovat lidsky srozumitelné obrazové informace.
Prošel jsem dva obrázky kolizí výše přes CLIP, abych zjistil, zda to nebylo také oklamáno.Krátká odpověď zní: ne.To znamená, že Apple by měl být schopen použít druhou síť extraktoru funkcí (jako je CLIP) na detekované obrázky CSAM, aby bylo možné určit, zda jsou skutečné nebo falešné.Mnohem obtížnější je generovat obrázky, které klamou dvě sítě současně.
Nakonec, jak již bylo zmíněno dříve, jsou obrázky ručně kontrolovány, aby se potvrdilo, že se jedná o sexuální zneužívání dětí.
Bezpečnostní výzkumník řekl, že jediným skutečným rizikem je, že kdokoli, kdo chce naštvat Apple, může poskytnout falešná pozitiva lidským recenzentům.
„Apple tento systém ve skutečnosti navrhl, takže hashovací funkce nemusí být utajována, protože jediná věc, kterou můžete udělat s „nenarušeným sexuálním zneužíváním jako sexuální zneužívání“, je obtěžovat tým odpovědný za Apple některými nevyžádanými obrázky, dokud nezavedou filtry k odstranění analýza Tyto odpadky v potrubí jsou falešně pozitivní,“ řekl Nicholas Weaver, vedoucí výzkumník z Institutu mezinárodní počítačové vědy na University of California, Berkeley, Motherboard v online chatu.
Soukromí je v dnešním světě stále větším problémem.Dodržujte všechna hlášení týkající se soukromí, zabezpečení atd. v našich pokynech.
Ben Lovejoy je britský technický spisovatel a editor EU pro 9to5Mac.Je známý svými sloupky a články v denících, kde postupem času zkoumá své zkušenosti s produkty Apple, aby získal obsáhlejší recenze.Píše také romány, existují dva technické thrillery, několik krátkých sci-fi filmů a rom-com!


Čas odeslání: 20. srpna 2021