Yapay zekâda yetki tek elde mi toplanmak isteniyor?

Uluslararası otoriteler, yapay zekânın taşıdığı birçok olumlu potansiyelinin yanında, tehdit yahut tehlike potansiyelinin de göz gerisi edilmemesi gerektiğini konusunda hemfikir. Yapay zekânın son birkaç yılda gösterdiği fevkalâde gelişim ve kullanıldığı alanlardaki sonuçlara dikkat çeken Dr. Öğr. Üyesi Nuri Bingöl, yapay zekâ teknolojisindeki gelişimin birtakım düzenleme ve kontrollere tabi olması gerektiğini söylüyor. Fikir ayrılıklarının ‘bu kontrolün nasıl ve kimler tarafından uygulanacağı’ konusunda olduğunu belirten Bingöl, bu yetkinin tek elde toplanması olarak düşünülmemesi gerektiğine vurgu yapıyor.

Üsküdar Üniversitesi Yapay Zekâ Mühendisliği Yüksek Lisans Programı Anabilim Kolu Lideri Dr. Öğr. Üyesi Nuri Bingöl, süratle gelişen yapay zekâ teknolojilerinin ulusal ve global manada nasıl denetlenmesi, ne tıp hudutların getirilmesi gerektiği ve tüm bunların önünde ne üzere mahzurlar olduğuna dair açıklamalarda bulundu.

 

Bilgi birikimini, yapay zekânın yararını maksimize edecek halde kullanmanın tam zamanı

Yapay zekânın taşıdığı birçok olumlu potansiyelinin yanında, tehdit yahut tehlike potansiyelinin de göz arkası edilmemesinin kıymetli olduğunu belirten Dr. Öğr. Üyesi Nuri Bingöl, “İnsanlık bu bahiste deneyimli ve bu tecrübeyi süratlice pratiklere çevirmeli. Daha evvelki devrimsel teknolojik gelişmelerin yol açtığı olumlu yahut olumsuz sonuçlardan çok şey öğrendik. Bu bilgi birikimini, yapay zekânın yararını maksimize edecek biçimde kullanmanın tam vaktidir.” dedi.

 

Yapay zekâ üzerindeki kontrolün nasıl uygulanacağı konusunda fikir ayrılıkları var

Düşünceleri ile bugünün toplumlarına istikamet veren birçok otorite ve hatta yapay zekânın gelişmesinde kıymetli rol oynayan insanların dahi, benzeri fikirleri paylaştıklarını tabir eden Bingöl, “Yapay zekânın son birkaç yılda gösterdiği harika gelişim ve kullanıldığı alanlardaki sonuçlar gösteriyor ki, yapay zekâ teknolojisindeki gelişim, kimi düzenleme ve kontrollere tabi olmalı. Fikir ayrılıkları bu hususta değil, ‘bu kontrolün nasıl uygulanacağı’ üzerinedir.” biçiminde konuştu.

 

Hangi basamağının denetleneceğine nazaran önlemler değişiyor

Tartışmaların ve fikir ayrılıklarının, kontrolün nasıl uygulanacağı noktasında ağırlaşmasının sebeplerine de değinen Bingöl, bu sebepleri şöyle açıkladı:

“Yapay zekâ teknolojileri fevkalade bir güçtür ve bu gücün yalnızca bir kurumun elinde toplanmasının getireceği meseleler var. Bu teknolojiler tabiatı gereği iki kademeli bir eserdir. Birincisi yapay zekânın kapasitesinin geliştirilmesi, ikincisi de muhakkak bir maksat için kullanılması. Bu iki evreden hangisi kontrole tabi tutulmalı yahut sonlandırılmalı? Hangi etabı daha fazla potansiyel tehdit yahut tehlike içeriyor? Doğal olarak bu sorunun karşılığına nazaran alınabilecek önlemler de değişiyor. ‘Nasıl uygulanacağı’ sorusu farklı bir mana kazanıyor.”

 

Teknoloji üzerinde çok bir kontrol ve sonlandırma, yararlarının azalmasına yol açar

Yapay zekânın kontrol ve sonlandırmasının hangi seviyede olacağı konusuna da dikkat çeken Bingöl, “Unutmamak gerekir ki teknoloji üzerinde çok bir kontrol ve sonlandırma, o teknolojinin gelişmesinden doğan yararların da azalmasına yol açar. Meğer insanlığın önünde büyük varoluşsal sorunlar var ve yapay zekâ teknolojileri bu hususlarda büyük potansiyel taşıyor.” dedi.

Bingöl, yapay zekâ konusunun kıymetli isimlerinden Andrew Ng’nin, ‘İnsanlığın büyük bir kısmı için varoluşsal riskleri düşündüğümde: Bir sonraki salgın, iklim değişikliği ve sonucunda kitlesel nüfus azalması, öteki bir asteroit tehlikesi… Yapay zekâ, çözümlerimizin değerli bir modülü olacak. Münasebetiyle, insanlığın önündeki bin yıl boyunca hayatta kalmasını ve gelişmesini istiyorsak, yapay zekânın daha süratli çalışmasını sağlayalım, daha yavaş değil.’ halindeki paylaşımının dikkat alımlı olduğunu da kelamlarına ekledi.

 

Denetim ve sonlandırmalar etik boyutu da kapsamalı

Yapay zekânın kontrol ve sonlandırmalarının, yalnızca tehdit ve tehlike boyutu üzerinde tesirli olmaması gerektiğini belirten Bingöl, “Bunlar kadar kıymetli ‘etik’ boyutu da var. Çok küçük kapasiteli yapay zekâ ürünleriyle bile, birtakım ferdî ihlal ve tehditler yaratabilir. Bilhassa bir kişi, kurum yahut bir insan topluluğu gaye olarak alınabilir.  Dolayısı ile kontrol ve sonlandırma gereksinimini yalnızca çok büyük kapasiteli yapay zekâ teknolojisi üreten yahut kullanan taraflar olarak düşünmemek gerekiyor. Kontrol ve sonlandırmalar hem büyük boyutlu hem de yerine nazaran küçük boyutlu yapay zekâ kapasitesi için geçerli olabilmeli.” halinde konuştu.

 

Kişisel bilgi güvenliği ve etik konusu için atılan adımlar, kontrol ve sonlandırmalar üzerine bir temel oluşturabilir 

Denetim ve sonlandırmaların nasıl uygulanacağı konusunun standartlaşması ve yönetmeliklerinin oluşmasının vakit alacak üzere göründüğünü tabir eden Bingöl, “Bu alanda tartışma ve fikirler gelişmeye devam ederken, Avrupa Birliği Genel Bilgi Muhafaza Tüzüğü veya ülkemizde uygulanan haliyle Kişisel Dataların Korunması Kanunu gibi geçmiş deneyimlerin içine, yapay zekâ ile ilgili kimi pratik yönetmelikleri ve düzenlemeleri bugünden koymak ve bir yönetimsel çerçeve oluşturmak değerli. Zira şahsî data güvenliği ve etik konusu için atılan adımlar, yapay zekânın kontrol ve sonlandırmaları üzerine bir fikir ve pratik temeli oluşturabilir. Bilginin hangi kaynaktan ne büyüklükte ve ne hedefle kullanıldığı, nasıl korunduğu ve paylaşıldığı üzerine inşa edilmiş bu mevzuatlar yapay zekânın kapasite geliştirme basamağı için değerli bir ögedir ve en azından bu açıdan bir denetim temeli oluşturabilir.” halinde konuştu.

 

‘Bilişim Hukuku’ ögelerinin dikkatini bu hususa çekmeliyiz

Diğer bir ögenin ise bilgi süreç gücü ve güç tüketiminin yönetilmesi olduğunu aktaran Bingöl, “Bu alandaki kontrol ve sonlandırmalar ‘Blok Zincir (Blockchain)’ teknolojisinin oluşturduğu birtakım badirelere tahlil olabilmiş ve teknolojinin daha olumlu tarafa yönelmesine katkı sağlamıştır. Emsal mevzuatlar, dolaylı olarak yapay zekâ teknolojisinin üzerinde de tesirli olabilir.” dedi.

Öncelikle yapay zekâ tarafından üretilen uydurma içeriklerin tespit edilmesi ve yaptırımların neler olması gerektiğinin kararlaştırılması gerektiğine dikkat çeken Bingöl, “Yalnızca geçersiz bilgi barındıran değil, gerçek bilgi barındıran fakat bunu bir kümesi manipüle etmek yahut bir kümeye çıkar devşirmek için yapay zekâ tarafından oluşturulan içeriklerin de önüne geçilmeli. Toplanan kullanıcı bilgileri sayesinde bireyleri hedefleyen yapay zekâ tarafından oluşturulmuş her türlü siyasi ve ticari kampanya sonlandırılmalı ki özgür irade özgür kalmaya devam etsin. Vakit kaybetmeden yapay zekâ odaklı bakış açısı ile ‘Veriye Erişim ve Bilgi Süreç Gücünün Kullanımı’ kavramlarının, mevcut yasa ve yönetmelikler ile alakasını kurmaya başlamalıyız. Bilhassa ‘Bilişim Hukuku’ ögelerinin dikkatini bu mevzuya çekmeliyiz.” halinde konuştu.

 

Merkezi bir irtibat ve kontrol oluşturmak neredeyse imkânsız 

İnsanların kolaylıkla ulaşabileceği ve ulaştığında hem kendi hem de diğerlerinin hayatlarına tesir edebileceği bir teknolojinin denetlenmesi gerektiğine vurgu yapan Dr. Öğr. Üyesi Nuri Bingöl, “Ancak sadece bir bilgisayar ve biraz matematik bilgisi ile oluşturulabilen yapay zekâ modellerinin tamamı üzerinde bir kontrol sistemi kurulması pek de mümkün gözükmüyor.” dedi.

Yapay zekâ teknolojisinin bir kontrol ve sonlandırmaya tabi olmasının, kaçınılmaz olarak bu yetkinin tek elde toplanması olarak düşünülmemesi gerektiğini belirten Bingöl, kelamlarını şöyle tamamladı:

“Hatta günümüz teknolojileri merkeziyetsiz alt yapılar üzerine odaklanıyor ve bu alanda birçok gelişme yaşanıyor. Kaldı ki yapay zekâ teknolojilerinin bir kere üretildikten sonra, rastgele bir merkeze hatta internete bağlı olmadan gömülü sistemler olarak çalışabilmesi, en azından kullanım evresi için bir özgürlük sağlıyor. Bu kabiliyete sahip yapay zekâ sistemleri için, günümüzde her alanda görüldüğünden, merkezi bir temas ve kontrol oluşturmak neredeyse imkânsız.”

 

Kaynak: (BYZHA) Beyaz Haber Ajansı

Benzer Videolar