• 28-02-2026, 15:18:09
    #1
    ᴀɪ ꜱᴘᴇᴄɪᴀʟɪꜱᴛ💎
    Anthropic "Hayır" Dedi. OpenAI Koştu. Biz Ne Yapıyoruz?
    Geçtiğimiz günlerde sessiz sedasız geçiştirilmemeye değer bir şey yaşandı.
    Pentagon, Anthropic'e başvurdu ve kitlesel gözetleme ile otonom silah sistemlerinde yapay zeka kullanmak istediğini iletti. Anthropic CEO'su Dario Amodei dünyanın en güçlü ordusunun bu talebini reddetti. Gerekçe netti: "Bazı kullanımlar etik kırmızı çizgilerimizi aşıyor."
    Bunun bedeli ağır oldu. Kısa süre içinde şirket hem siyasi baskıyla hem de "ulusal güvenlik riski" damgasıyla karşılaştı.
    OpenAI ise farklı bir tercih yaptı. Sam Altman, Anthropic'in bıraktığı boşluğa gecikmeden girdi ve anlaşmayı imzaladı. Yıllarca "güvenli yapay zeka" ve "insanlığın yararı" söylemini öne çıkaran birinin, gerçek bir sınav geldiğinde aldığı bu karar dikkat çekici.
    Tartışmaya değer soru şu: Yapay zekanın otonom silah sistemlerinde ve kitlesel gözetlemede kullanımı için hangi standartlar belirlenmelidir? Bu kararlar yalnızca CEO'ların vicdanına bırakılabilir mi?
    Bu konu sessizce geçiştirilmemeli.


    https://x.com/sama/status/2027578652477821175
  • 28-02-2026, 15:20:15
    #2
    Hocam param olursa claude 200 $ alacağım sonra bununla bazı geliştirmeler yapmayı deneyeceğim.
    Adamalar ülkenin bankasına sızıyor bunun sayesinde.
  • 28-02-2026, 15:26:32
    #3
    Openai bak sen, iki resim çizdireyim soru sorayım diyorsun. Yok yapamam, edemem, bu kullanımını gerçekleştiremem ama işine geldi mi nasıl da ölümcül şeylere imza atıyor
  • 28-02-2026, 15:27:15
    #4
    yok be hocam bir bot bile yapamıyor vay çok hesap açılmazm ış etik değil miş bir oyun botunu bile geliştiremiyor
  • 28-02-2026, 15:31:07
    #5
    yani varsa bunun aşmanın yöntemini bilen arkadaş paylaşırsa sevinirim
  • 28-02-2026, 16:13:44
    #6
    Sam Altman akıllı adammış. Zarar eden şirketine para lazım.