Teknoloji

Yapay Zeka, tanıma sistemleri için tehlike oluşturur mu?

Yapay Zekanın ilerlemesi, insan yüzlerinin giderek daha gerçekçi görüntülerinin yapay olarak oluşturulmasına olanak tanır; bu, güvenlik açığı «model hackine» maruz kaldıkları için havaalanları veya polis gibi tanıma sistemleri için tehlike oluşturabilir.

Siber güvenlik şirketi McAfee tarafından keşfedilen ve Black Hat 2020’de sunulan bu güvenlik açığı, bir kişiyi farklı bir kişi olarak sınıflandırmak için bir yüz tanıma sistemini hackleyerek orijinal kişinin fotogerçekçi görünümünü koruyabiliyor.

‘Karşıt Makine Öğrenimi’ veya AML olarak bilinen ‘Model korsanlığı’, Yapay Zeka (AI) modellerine karşı olumsuz saldırıların incelenmesi ve tasarımıdır. AI öğrenme döngüsü sırasında, model, sonucun güvenilirliğini değerlendiren bir çekişmeli algoritma kullanılarak sürekli olarak eğitilir.

‘Model korsanlığı’ güvenlik açığını ve yüz tanıma sistemleri üzerindeki potansiyel etkisini değerlendirmek için McAfee, bu teknikle iki gerçek kişinin iki vesikalık fotoğrafını birleştirerek, küçük farklılıklarla birlikte, fotogerçekçi ve görünüşte aynı iki görüntü elde etti.

Daha sonra, siber güvenlik şirketi gerçek ve işlevsel bir yüz tanıma sistemini kopyaladı ve bu yapay görüntüleri göstererek, bir tarayıcının, düşman ağlarının çalışması nedeniyle, aynı kişi gibi farklı insanları algılamasını sağladı. sistemler.

Şirket, otomatik sistemin aynı olarak tanımladığı görüntüler arasındaki farkları gerçek kişilerin fark etmesini sağladığından, bu güvenlik açığı yalnızca AI ve makine öğrenimine dayanan herhangi bir yüz tanıma için potansiyel olarak tehlikelidir.

Deja una respuesta

Botón volver arriba
Cerrar

Bloqueador de anuncios detectado

¡Considere apoyarnos desactivando su bloqueador de anuncios!