Haber

Yapay zeka, insanlar için hayati önem taşıyan anlarda söz sahibi olabilir

Yapay zekanın insanlar için hayati önem taşıyan problemlerde söz sahibi olması artık bilim kurgu filmlerinden bir kesit olmaktan çıkabilir. Zira hukuk gibi kritik bir alanda bile yapay zeka dünyanın bazı bölgelerinde pilot uygulamalarla kullanılmaya başlandı.

İnsan davranışını taklit eden algoritmaların mahkeme kararlarında bile söz sahibi olmasının etik olup olmadığı tartışılıyor.

Hukuk alanında dava takibini hızlandırarak ve rutin işleri otomatikleştirerek bahis konusunda avantaj sağladığına inanılan yapay zeka, dünyanın farklı yerlerinde çeşitli pilot uygulamalarla insanlığın karşısına çıkıyor. Bunlardan birkaçını Çin, Estonya ve Malezya’da görmek mümkün.

Estonya’da küçük davaları değerlendiren “robot hakimler”, Kanada’da robot arabulucular, Çin’de yapay zeka hakimler ve Malezya’da yapay zeka yargılama sistemi ile artık adalet sisteminde algoritmaları hissetmek mümkün.

Çin’in başkenti Pekin’de 2019 yılında İnternet Mahkemesi’ne bağlı çevrimiçi dava takip hizmet merkezinde dava açma ve dosyalama gibi rutin hukuki süreçlerde kararlara yardımcı olması için yapay zeka teknolojisini kullanan bir yazılım modülü kullanılmaya başlandı.

Aynı yıllarda Estonya’da da benzer bir durum yeniden başladı. Estonya’daki mahkemelerde göreve başlayan yapay zeka destekli robot hakimler, 7 bin avronun altındaki denkleştirilmiş uyuşmazlıklarda yasal belgelerin incelenmesi ve analiz edilmesi konusunda mahkemelere takviye veriyor.

Malezya’da 2022 yılında ülkenin bazı eyaletlerindeki mahkemelerde yapay zeka yargılama sisteminin pilot uygulamaları başladı.

Yapay zekanın adalet sistemine dahil edilmesinin cezaların daha dengeli hale gelmesine, yığılan davaların daha hızlı ve daha az maliyetli bir şekilde ilerlemesine yardımcı olduğu söylense de hukuk etiği açısından bunun doğru olup olmadığı tartışılmaktadır.

Yapay zekada en değerli nokta, kanunlar önünde “etik denetim”dir.

İstanbul Medipol Üniversitesi Hukuk Fakültesi Öğretim Üyesi Prof. Dr. Ahmet Ulvi Türkbağ, yapay zekanın ahlaki kontrolüne ilişkin belli başlı ilkelerin olduğunu belirterek, “En önemlisi yapay zeka şeffaf olmalı. Kesinlikle ve kesinlikle kontrol edilebilir. “Yargıya varamayız. Bu çok tehlikeli sonuçlara yol açabilir.” değerlendirmesini yaptı.

Yapay zekanın şaşırtıcı kararlar alma gücüne sahip olduğunu ve bu nedenle algoritmaların verdiği kararların insanlar tarafından erişilebilir olması gerektiğini ifade eden Türkbağ, bunun “alt program” adı verilen küçük programlarla sağlanabileceğini söyledi.

Türkbağ, algoritmalar tarafından verilen önemli mahkeme kararlarının insan zekası tarafından denetlenebilir olması gerektiğini belirtti.

Algoritmaların sağlıklı bir şekilde denetlenebileceğini belirten Türkbağ, bunun iki şekilde olabileceğini öne sürdü: “Birincisi, tıpkı antivirüs programlarında olduğu gibi, resmi veya özel bir etik kontrol programı, yapay zeka programınızı denetler ve oradan bir etik derecelendirme sertifikası alırsınız. programınızın etik güvenilirliğidir.Derecelendirilir ve belirli alanlarda kullanılabilir.Örneğin ağır ceza gerektiren hatalarda veya dava konusunun değeri yüksek olan uyuşmazlıklarda en güvenli yapay zeka programları örneğin testten tam puan alanlar 5. derece etik güvenilirliğe sahip programlar kullanılır yani etik kontrol programları geneldir ya da “Yapay zeka programlarını özel amaçlı denetlerler. Günümüzde intihal programları tam da bu mantıkla çalışmaktadır. Kontrol programı onay verirse yapay zeka çıkacak.” dedi.

İncelemenin önemine vurgu yapan Türkbağ, “Yasal denetimden daha değerli. Yapay zekayı mutlaka etik denetime tabi tutmalıyız.” dedi.

Konuyla ilgili bir başka varsayımda bulunan Türkbağ, “Aracın dış hava sıcaklığını ölçmesini istiyorsanız bir yazılım eklersiniz, bir derece eklersiniz, varsayım olarak 5 dakikada bir ekrana veriler yansır, bu bir varsayımdır.” alt program.” Yapay zekanın hukuk alanında kullanılmasının ardından alınan kararın alt program yardımıyla geriye dönük olarak karara varma adımlarını gösterebileceğini belirtti.

Yapay zekanın manipülasyonu ve mahremiyet endişeleri

ABD’de kar amacı gütmeyen Yapay Zeka ve Dijital Politika Merkezi (CAIDP), Federal Ticaret Komisyonu’na (FTC) yaptığı başvuruda, yapay zeka geliştirme şirketi OpenAI’nin yapay zeka robotu ChatGPT’nin, GPT-4’ün yeni versiyonu, durdurulmak

CAIDP, OpenAI’yi FTC’nin haksız ve aldatıcı iş uygulamaları maddesini ve yapay zeka çalışmalarına yönelik yönergeleri ihlal etmekle suçlayarak FTC’ye şikayette bulundu. OpenAI şirketinin en yeni GPT modeli GPT-4’ün “aldatıcı olduğunu ve mahremiyet ve kamu güvenliği için risk oluşturduğunu” savunan CAIDP, şirketin yapay zeka ürünlerinin FTC’nin kılavuzundaki “şeffaf, açık ve hesap verebilir” standartlarını karşılamadığını savundu. .

Bazı kesme uzmanları, bilgisayar teknolojisinin “insan manipülasyonu” konusunda da endişe duymaktadır.

prof. Türkbağ, “Yapay zeka manipüle edilmemeli, bu çok önemli. Yapay zekadan bir insanı kurtarmasını istediniz ve bu kişinin de beslediği bir hayvanı var, adamı kurtarırken hayvanı öldürmesin.” sözlerini kullandı.

AI kararını üst mahkemeye taşımak

Türkbağ, varsayımsal olarak, yapay zeka tarafından verilen bir kararın temyiz edilip bir üst mahkemeye götürülmesi halinde, davanın insan zekasına devredilmesi gerektiğini belirtti.

“Yapay zekayı birinci derecede kabul etsek bile itiraz edildiğinde mutlaka insana gitmeli, hukuk mantığı bunu gerektiriyor.” Türkbağ, vakaların değerine göre yapay zekanın geniş çaplı veri tabanı taraması yapması gerektiğini sözlerine ekledi.

Türkbağ daha sonra yapay zekanın bir hiyerarşi geliştirebildiğini, algoritmalarla alınan kararın insanlar tarafından itiraz edilmemesi durumunda artı puan olarak algılanacağını kaydederek, “Daha sonra içtihat olacak çünkü Artılara daha çok yer verin.Artı puan aldığı gibi o örneklerin üzerinden geçecek.Eksi puan gelince o karar da alınacak.Şüpheli olduğunu düşünecek ve daha az olası diye karar vermeye başlayacak. . Yapay zeka, insanlardan farklı olarak her örnekte birebir öğrenir ve asla unutmaz.” söz konusu.

Yapay zekanın geliştirdiği kendi içtihatlarına da bakacağını belirten Türkbağ, yapay zekanın tehlikeli durumlarda daha önce yaptıklarını taklit edeceğini, tehlikeli durumlarda ne yapılacağına öncelik verilmezse bunun büyük sorunlara yol açacağını kaydetti. .

Örneğin Türkbağ, ilerleyen bir araba olduğunda yapay zekanın arabanın içini mi yoksa dışını mı koruyacağı sorusunun değerli bir soru olduğunun altını çizdi. Bunun bir mühendislik meselesi olmadığını, tamamen etik bir mesele olduğuna işaret eden Türkbağ, “Bizim için ne olursa olsun ikisini de kurtarması gerekiyor” dedi. değerlendirmesini yaptı.

Türkbağ, “Korkarım mesela VIP araçlardaki yapay zekaya farklı programlar verilebiliyor, ‘içini tamamen koru’ komutu verilebiliyor, ‘dışarı ne olursa olsun’ mantığı beni çok korkutuyor. , insanların yapay zekayı yeniden manipüle etme olasılığı.”

bunyanajans.xyz

Bir yanıt yazın

E-posta adresiniz yayınlanmayacak. Gerekli alanlar * ile işaretlenmişlerdir

-
Başa dön tuşu
escort
istanbul escort
istanbul escort
istanbul escort
istanbul escort
istanbul escort
adalar escort
arnavutköy escort
ataşehir escort
avcılar escort
bağcılar escort
bahçelievler escort
bakırköy escort
başakşehir escort
bayrampaşa escort
beşiktaş escort
beykoz escort
beylikdüzü escort
beyoğlu escort
büyükçekmece escort
çatalca escort
çekmeköy escort
esenler escort
esenyurt escort
eyüp escort
fatih escort
gaziosmanpaşa escort
güngören escort
kadıköy escort
kağıthane escort
kartal escort
küçükçekmece escort
maltepe escort
pendik escort
sancaktepe escort
sarıyer escort
şile escort
silivri escort
şişli escort
sultanbeyli escort
sultangazi escort
tuzla escort
ümraniye escort
üsküdar escort
zeytinburnu escort
istanbul escort