Python'da AI modellerinin zayıf noktalarını bulup sömürmek, genellikle modelin eğitim verilerinde saklı olan kripto zafiyetlerini keşfetmekle başlıyor. Saldırganın, modelin çıkışlarını manipüle edebilmek için input poisoning, adversarial attacks ya da model inversion tekniklerini kullanması gerekiyor. Tamir aşamasında ise, zayıflıkların kök nedenini bulup, modelin eğitim sürecine salınan verileri filtrelemek, adversarial training uygulamak ya da kriptografik koruma katmanları eklemek kritik. Kodda, `numpy` ve `torch` ile gradient masking'i test et, `scipy` ile de modelin hassasiyetini haritala.