OpenAI'nin milyonlarca veri kullanılarak geliştirilen son teknoloji makine görme sistemi, kağıt ve kalem gibi basit araçlar kullanılarak aldatıldı. Bir nesnenin üzerine farklı bir nesnenin adını yazan araştırmacılar, sistemi kandırmayı başardılar.
San Francisco merkezli yapay zeka araştırma firması OpenAI'den araştırmacılar, şirketin son teknoloji makine görme sisteminin kalem ve kağıt gibi çok karmaşık olmayan araçlar tarafından kandırılabileceğini keşfettiler. Test için bir nesneye başka bir nesnenin adını yazan araştırmacılar, gördüklerini yanlış tanımlamak için yazılımı kandırdılar. hatta çoğu zaman modeli yanıltabileceğini gördük. "Bu tür saldırıların, makine görme sistemlerini kandırabilecek ancak üretilmesi çok daha basit olan" düşman "görüntülere benzediğini belirtiyorlar.
Sistemi eğitmek için 400 milyondan fazla veri kullanıldı:
Kasıtlı olarak çarpıtılmış piksellere sahip" olumsuz "görüntüler, Makine modelleri karıştırıp aldatıyor. Vizyona dayanan sistemler için gerçek bir tehlike oluşturuyor.Örnek vermek gerekirse, araştırmacılar Tesla'nın sürücüsüz araçlardaki yazılımının, bazı etiketler yapıştırılarak uyarı yapılmadan şerit değiştirmeye kandırılabileceğini göstermişlerdi. Bu nedenle, bu tür saldırılar tıptan orduya kadar çeşitli AI uygulamaları için ciddi bir tehdit oluşturuyor. Yine de araştırmacılar, ortaya çıkan bu tehlikenin en azından şimdilik endişelenecek bir şey olmadığını söylüyor. Herhangi bir ticari üründe kullanılmayan CLIP OpenAI tarafından geçtiğimiz aylarda tanıtılan genel amaçlı bir görüntü sistemi olan CLIP, internetten alınan yaklaşık 400 milyon görüntü ve metni kullanarak tren.
Laboratuvar tarafından paylaşılan bir başka örnek de, CLIP'deki kumbaraları tanımlayan nörondur. Bu bileşen yalnızca kumbara resimlerine değil, aynı zamanda dolar '$' işaretlerine de yanıt verir. Yukarıdaki örnekte olduğu gibi, araştırmacılar bir motorlu testereye '$' işaretleri ekleyerek yapay zekanın onu bir motorlu testere yerine bir kumbara olarak tanımlamasına izin verdi.