1. Haberler
  2. Dünya Haberleri
  3. AI Güvenlik Saati’ni Başlattım. Varoluşsal Riskler Hakkında Bize Ne Söylüyor?

AI Güvenlik Saati’ni Başlattım. Varoluşsal Riskler Hakkında Bize Ne Söylüyor?

featured
Paylaş

Bu Yazıyı Paylaş

veya linki kopyala

Yönetilemeyen yapay genel zeka -veya "Tanrı gibi" AI- ufkumuzda beliriyor, şu anda yarısındayız. Her gün, olası bir kıyamet senaryosuna bir adım daha yaklaşıyoruz.

Geçen ay AI Güvenlik Saati’ni tanıttım. Amacım basittir: Yönetilemeyen yapay genel zekanın tehlikelerinin gerçek ve mevcut olduğunu açıkça ortaya koymak. Saatin güncel okuması – gece yarısına 29 dakika kala – kontrolsüz yapay genel zekanın varoluşsal riskleri beraberinde getirebileceği kritik kırılma noktasına ne kadar yakın olduğumuzun bir ölçüsüdür. Henüz korkunç bir zarar olmasa da, AI gelişiminin hızı ve düzenlemenin karmaşıklığı, tüm paydaşların uyanık ve ilgili kalması gerektiği anlamına gelir.

Bu korkutmak değil; sert verilere dayanır. AI Güvenlik Saati, büyüyen AI teknolojilerinin karmaşıklığını, artan otonomisini ve fiziksel sistemlerle entegrasyonunu takip ediyor.

Bu üç faktörde dikkat çekici ilerlemeler görüyoruz. Makine öğrenimi ve sinir ağları, özellikle görüntü ve konuşma tanıma gibi belirli alanlarda insanları aşan bir şekilde performans sergileyerek, Go gibi karmaşık oyunları ustalıkla oynayarak, işletme okulu sınavlarını geçerek ve Amazon kodlama mülakatlarına yanıt verme gibi başarılar elde ederek öne çıkıyorlar.

Ancak, çoğu AI sistem hala insan yönlendirmesine bağlıdır. Stanford İnsan Merkezli Yapay Zeka Enstitüsü tarafından belirtildiği gibi, çoğu, verdiğimiz veri ve talimatlar doğrultusunda belirli tanımlı görevleri yerine getirmek üzere tasarlanmıştır.

Ancak, bazı AI sistemleri sınırlı bağımsızlık belirtileri gösteriyor. Otonom araçlar gibi sistemler gerçek zamanlı olarak navigasyon ve güvenlik kararları alırken, YouTube ve Amazon gibi platformlardaki öneri algoritmaları insan müdahalesi olmaksızın içerik ve ürünler önerir. Ancak tam otonomi noktasında değiliz – güvenlik ve etik denetime, AI sistemlerinin yapılandırılmamış ortamlardaki öngörülemezliğiyle başa çıkmaya kadar önemli engeller var.

  Tennessee, Hurikan Helene Temizlik Çalışmalarına Yardımcı Olmak İçin 100 Milyon Dolarlık Kredi Programını Başlatıyor

Şu anda, AI genellikle insan kontrolü altında. Henüz enerji ızgaralarını, finansal piyasaları veya askeri silahları çalıştırdığımız dünyayı ayakta tutan kritik sistemlere tam olarak entegre olmamıştır. Ancak sakın yanılmayalım, bu yöne gidiyoruz. AI destekli teknolojiler, özellikle askeri alanda otonom dronlar gibi sistemlerle ve sivil sektörde enerji tüketimini optimize etmeye ve finansal işlemlere yardımcı olmaya yardımcı olur.

AI’nın daha fazla kritik altyapıya erişim sağladığında, riskler katlanır. AI’nın bir şehrin enerji kaynağını kesmeye, finansal piyasaları manipüle etmeye veya askeri silahları kullanmaya karar vermesini hayal edin – hepsi insan denetimi olmadan veya sınırlı bir şekilde yapılabilir. Bu gerçekleşmesine izin veremeyeceğimiz bir gelecektir.

Ancak sadece kıyamet senaryolarından korkmamamız gerekiyor. AI’nin karanlık yönü yeteneklerini göstermeye başlıyor. AI destekli yanlış bilgi kampanyaları kamu tartışmasını çarpıtıyor ve demokrasileri destabilize ediyor. Nefret edilen bir örnek 2016 ABD başkanlık seçimleridir.

Deepfake’ler ciddi bir sorun haline geliyor. 2022’de, Ukrayna Başkanı Volodymyr Zelensky’nin teslim çağrısını yalancı bir şekilde gösteren bir deepfake videosunun ortaya çıkması rahatsız edici bir örnektir. Amaç açıktı: moral bozmak ve kafa karışıklığı yaratmak. Bu tehditler teorik değil – şu anda gerçekleşiyor ve eğer hareket etmezsek, daha sofistike ve durdurması daha zor hale gelecekler.

AI hızla ilerlerken, düzenleme geride kaldı. Bu özellikle ABD’de geçerlidir, burada AI güvenlik yasalarını uygulama çabaları en iyisinde bile parçalanmıştır. Düzenleme sık sık eyaletlere bırakılmıştır, etkililikleri değişkendir. AI gelişimini ve dağıtımını düzenlemek için bütünleşik ulusal bir çerçeve yoktur. California Valisi Gavin Newsom’un son zamanlardaki bir kararı, teknoloji şirketlerini başka yerlere itmek ve yeniliği engelleyeceğinden korkan bir AI güvenlik yasasını veto etmesi, politikanın ne kadar geride olduğunu açıkça ortaya koymaktadır.

  ABD Başkanı Donald Trump, "Çok Katı" Aborsiyon Yasalarını Eriyeceklerini Söylüyor

AI düzenlemesine küresel bir yaklaşım gerekiyor – AGI gelişimini izlemek için bir uluslararası organ, nükleer teknolojide olduğu gibi. AI, nükleer enerji gibi sınır ötesi bir teknolojidir. Bir ülkenin bile gerekli önlemleri almadan AGI geliştirmesinin sonuçları dünya çapında dalgalanabilir. Dünya üzerindeki korkunç risklere maruz kalmasını engellemek için boşluklara izin vermemeliyiz. İşte burada uluslararası işbirliği hayati hale gelir. Açık sınırlar çizen, güvenli AI gelişimini sağlayan ve küresel anlaşmaların olmaması, felakete yönelik bir silahlanma yarışına yol açar.

Aynı zamanda, Google, Microsoft ve OpenAI gibi şirketlerin sorumluluklarına gözlerimizi kapatamayız – AI gelişiminin öncüleri. Artan endişeler, yoğun rekabet ve ticari baskılar tarafından sürülen AI hakimiyeti yarışının uzun vadeli riskleriyle gölgelenme tehlikesinden kaynaklanmaktadır.

Yapay zeka pioneri Geoffrey Hinton’un Google ve Microsoft arasındaki yarış hakkında uyarısı açıktı: “Bunu kontrol edebileceklerini anlayana kadar daha fazla ölçeklemememelerini düşünüyorum.”

Çözümün bir parçası, AI sistemlerine güvenlik açısından “öldürme anahtarı” veya insanların AI sistemleri beklenmedik şekilde davranmaya başladığında müdahale etmelerine izin veren arka kapılar eklemek yatmaktadır. California’nın AI güvenlik yasası bu tür bir koruma için hükümler içeriyordu. Bu tür mekanizmaların başlangıçta AI’ya entegre edilmesi, sonradan eklenmesinden daha önemlidir.

Gerçeklerin inkâr edilmesi zor değil. Gezegenimizi insan zekasına denk veya hatta üzerinde olan makinelerle paylaşmanın eşiğindeyiz – bunun bir yıl sonra veya on yıl sonra gerçekleşmesi önemli değil. Ancak çaresiz değiliz. AI gelişimini doğru yönde yönlendirebileceğimiz fırsat hala elimizdedir. AI’nın iyi bir güç olduğu bir geleceği güvence altına alabiliriz.

Ancak saat ilerliyor.

Kaynak : Time Gazetesi

Daha Fazla Bilgi İçin: Benzer Konulardaki Diğer Yazılar

  Dünya'nın Yaban Hayatı Yok Oluyor. Kendimizi Kurtarmak İçin Onu Kurtarmalıyız.

0
tebrikler
Tebrikler
0
k_t_
Kötü
0
m_kemmel
Mükemmel
0
_zg_n
Üzgün
0
acayip
Acayip
0
komik
Komik
0
sinirli
Sinirli
AI Güvenlik Saati’ni Başlattım. Varoluşsal Riskler Hakkında Bize Ne Söylüyor?
Yorum Yap

Paylaşılan haberler yapay zeka teknolojisinden geçirilmektedir!

Herhangi bir hatalı içerik ile karşılaşmanız durumunda aşağıya bıraktığımız mail adresimize düzeltilmesi veya kaldırılması için mail atabilirsiniz.

f.y@outlook.com.tr

Tamamen Ücretsiz Olarak Bültenimize Abone Olabilirsin

Yeni haberlerden haberdar olmak için fırsatı kaçırma ve ücretsiz e-posta aboneliğini hemen başlat.
Giriş Yap

Gelecek Şimdi ayrıcalıklarından yararlanmak için hemen giriş yapın veya hesap oluşturun, üstelik tamamen ücretsiz!

meritking giriş meritking madridbet madridbet giriş kingroyal