Yapay zekadaki büyük gizem

En modern algoritmaların nasıl çalıştığını ve ne yaptığını aslında hiç kimse bilmiyor. Peki bu ileride büyük bir sorun olabilir mi?

26.09.2017 15:11:000
Paylaş Tweet Paylaş
Yapay zekadaki büyük gizem

Geçen yıl New Jersey, Monmouth County’nin ıssız yollarında kendi kendine giden tuhaf bir arabanın lansmanı yapılmıştı. Bilgisayar çipi üreticisi Nvidia’daki araştırmacılar tarafından geliştirilen bu deneysel araç aslında diğer şoförsüz arabalardan pek de farklı görünmüyordu. Ancak Google, Tesla veya General Motors’un tanıtımını yaptıklarına da hiç benzemiyordu ve resmen yapay zekanın yükselen gücünü gösteriyordu. Bu araba bir mühendis veya yazılımcının verdiği talimatlara uymuyordu. Aksine, bu araba kendisine araç sürmeyi bir insanı araba kullanırken izleyerek öğreten bir algoritmaya sahipti. Bir arabayı bu şekilde sürüş yapabilir hale getirmek müthiş bir ustalık gerektirir. Ancak arabanın kendi kararlarını nasıl verdiğinin tam anlamıyla net olmaması yüzünden bu durum bir parça huzursuzluk verici. Bu aracın sensörlerinden gelen bilgiler doğrudan bu verileri işleyen ve sonra direksiyon, frenler ve diğer sistemlerin nasıl çalışması gerektiğine dair komutları gönderen devasa bir yapay sinir ağına gidiyor. Sonuçta ortaya bir insan sürücüden bekleyebileceğiniz türden tepkiler çıkmış gibi görünüyor. Ancak bu araç ya bir gün ağaca çarpmak ya da yeşil ışıkta beklemek gibi umulmadık bir şeyler yaparsa ne olacak? Gelinen şu noktada bunun neden olduğunu anlamak çok zor olabilir. Bu sistem o kadar karmaşık ki tasarlayan mühendisler bile bugün onun herhangi bir tepkisinin nedenini açıklamakta güçlük çekebiliyor. Sorularınıza hep şu cevabı alıyorsunuz: Yapay zekanın her zaman neyi neden yaptığını açıklayabilecek bir sistemi tasarlamak mümkün değil. Bu araçla ilgili gizem aslında yapay zekanın içindeki belli belirsiz görünen bir soruna işaret ediyor. Derinlemesine öğrenme olarak bilinen bu aracın altında yatan yapay zeka teknolojisi, geçtiğimiz yıllarda problemlerin çözümünde son derece etkili olduğunu ispatlamıştı ve görüntü eşleştirme, ses tanımayla yabancı dil tercümesi gibi alanlarda yaygın bir şekilde kullanılmıştı. Şimdi aynı tekniklerin ölümcül hastalıkların teşhisine, milyon dolarlık ticaret anlaşmalarına ve endüstrilerin tamamının dönüştürülmesine sayısız faydası olacağına dair bir umut var. Ancak biz derinlemesine öğrenme gibi teknikleri kendi yaratıcıları için daha anlaşılabilir ve kullanıcıları için de daha hesap verebilir hale getirmenin yollarını bulmadıkça bu gerçekleşmeyecek ya da asla gerçekleşmemeli. Aksi halde arızaların ne zaman olabileceğini öngörmek çok zor olacak ve bu arızalar kaçınılmaz bir şekilde gerçekleşecek. İşte Nvidia’nın arabasının halen deneysel olmasının bir nedeni de bu. 

KARA KUTU YÖNTEMİ

Bugün kimlerin şartlı tahliyeyle salıverileceği, kimlere kredi tahsis edilebileceği ve kimlerin işe alınabileceğine karar verilmesinde matematiksel modellerden faydalanılıyor. Artık bankalar, ordu, işverenler de dikkatlerini otomatik karar alabilen karmaşık öğrenen makineler yaklaşımına kaydırıyor. Bu yaklaşımlardan en yaygın olanı derinlemesine öğrenme ise bilgisayarların programlanmasında kökten farklı bir yolu temsil ediyor. Öğrenen makine uygulamaları üzerinde çalışan bir MIT profesörü olan Tommi Jaakkola, “Öğrenen makinelerle ilgili belirgin bir sorun var ve ileride bu çok daha aşikar olacak. Sonuçta yatırımla ilgili, tıbbi ya da askeri bir karar alırken sadece bir ‘kara kutu’ yöntemine bel bağlamak istemezsiniz” diyor. Bir yapay zeka sistemini nasıl sonuçlar çıkardığına dair sorgulayabilir olmanın temel bir hukuki hak olup olmadığıyla ilgili daha şimdiden bir tartışma var. Avrupa Birliği 2018 yaz aylarından başlayarak şirketlerden kullanıcılara otomatik sistemlerin aldıkları kararların açıklamasını yapmalarını zorunlu kılabilir. Reklamlarda faydalanılan veya şarkı tavsiyeleri yapan derinlemesine öğrenme kullanan uygulamalar ve web siteleri gibi oldukça basit ve yüzeysel sistemlerin bile bunu gerçekleştirmesi imkansız olabilir. Bu servisleri çalıştıran bilgisayarlar kendi kendilerini programlar ve bu işi bizim anlayamayacığımız yollardan yaparlar. Bu uygulamaları yaratan mühendislerin kendileri bile onların  davranışlarını tam olarak açıklayamaz. İşte bu durum soruların ortaya çıkmasına neden oluyor. Elbette biz insanlar da kendi düşünce süreçlerimizi her zaman açıklayamayabiliriz. Ancak biz daima insanlara güvenmenin ve onları ölçmenin sezgisel yollarını bulabiliriz. Peki bir insanın yaptığından farklı bir şekilde düşünen ve kararlar veren makineler için de bu mümkün olacak mı? Biz daha önce hiçbir zaman kendi yaratıcılarının anlamadığı çalışan makineler yapmadık. Öngörülemez ve esrarengiz akıllı makinelerle iletişim kurmayı ve onlarla iyi geçinmeyi umabilir miyiz? Bu sorular bizi Google’dan Apple’a kadar pek çok şirketin yapay zeka algoritmaları üzerine yaptıkları deneysel araştırmalar hakkında bir yolculuğa çıkardı. 2015 yılında New York’taki Mount Sinai Hastanesi’nde bir araştırma grubu, bu hastanenin devasa büyüklükteki hasta kayıt veritabanına derinlemesine öğrenmeyi uygulamaya kalkışmıştı. Bu veri setinin içinde hastalarla ilgili test sonuçlarından, doktor vizitelerinden ve diğerlerinden toplanmış yüzlerce değişken vardı. Bu araştırmacıların Deep Patient (Derin Hasta) adını koydukları bu program yaklaşık 700 bin bireyden toplanmış veriler kullanılarak eğitilmişti ve yeni kayıtlar üstünde denendiğinde hastalıkların teşhisinde inanılmaz derecede başarılıydı. Deep Patient herhangi bir uzman doktor desteğine gerek duymaksızın insanların içinde karaciğer kanserinin de olduğu geniş bir rahatsızlıklar yelpazesine dahil olup olmadıklarını anlamak için hastane verilerinde saklı örüntüler olduğunu keşfetmişti. Mount Sinai’deki bu ekibi yöneten Joel Dudley, “Bir hastanın kayıtlarından hastalıkları teşhis etmekte çok iyi olan pek çok yöntem vardır” diyorve ekliyor: “Ancak bu çok daha iyi bir yöntem.” 

MODELLER NASIL ÇALIŞIYOR? 

Deep Patient aynı zamanda biraz muammalı. Bu program, şizofreni gibi psikiyatrik rahatsızlıkların başlangıcını mükemmel şekilde öngörebiliyor. Şizofreni doktorlar için sezilmesi son derece zor bir hastalık olduğu için Dudley programın bunu nasıl gerçekleştirdiğini merak etmişti ve halen bunun cevabını bulmuş değil. Bu yeni araçlar bir işi nasıl yaptıklarına dair hiçbir ipucu vermiyor. Eğer Deep Patient gibi programlar doktorlara gerçekten yardımcı olacaksa, işin ideali onların doktorlara mesela bir hastanın reçetesindeki ilacın değiştirilmesi gibi kendi öngörülerinin arkasında yatan mantığı da sunmaları ve kendi önerilerinin doğru olduğu yönünde güvence vermeleri olacaktır. Dudley üzülerek “Biz modeller yaratabiliriz, ancak onların işe yarayıp yaramayacağını bilemeyiz” diyor. Yapay zeka her zaman böyle değildi. Başlangıcında yapay zekanın ne kadar anlaşılabilir veya ne kadar açıklanabilir olması gerektiğiyle ilgili iki farklı düşünce ekolü vardı. Bu alanda akla yatkın pek çok fikir, kurallara ve mantığa uygun sonuçlar çıkaran ve iç işleyişi onun yazılımını incelemek isteyen herkese şeffaf olan makineler yapmak yönündeydi. Diğerleri ise makinelerin biyolojiden esinlenmeleri ve gözlemle, deneyimlemeyle öğrenmeleri durumunda zekalarının daha kolay gelişebileceğini düşünüyordu. Bu ise bilgisayar programcılığını tepe taklak etmek anlamına geliyordu. Bir sorunu çözmek için bir programcının komutlar yazması yerine, bu program örnek verilere ve istenilen çıktılara bakarak kendi algoritmasını kendisi yaratıyor. Günümüzdeki en güçlü yapay zeka sistemlerine doğru evrimleşen öğrenen makine teknikleri ikinci yolu izlemişti: Özünde kendi kendini programlayan makineler. Başlangıçta bu yaklaşımın pratikte sınırlı bir kullanımı vardı ve 1960’lar ile 1970’lerde büyük ölçüde belirli bir alana hapsolmuştu. Sonrasında pek çok endüstrinin bilgisayarlaşması ve ortaya büyük veri setlerinin çıkmasıyla ona duyulan ilgi yeniden arttı. Bu durum çok daha güçlü öğrenen makine tekniklerinin geliştirilmesine ilham kaynağı oldu. Bilhassa yapay sinir (neural) ağları olarak bilinenin yeni sürümlerine. 1990’lar itibarıyla sinir ağları artık elle yazılmış harfleri otomatikman dijitalleştirebilir hale geldi. Ancak otomatik algılamada dramatik boyutta ilerleme kaydeden çok büyük ya da derin sinir ağlarının ortaya çıkması için bir yığın hassas ayar ve düzeltme yapıldıktan sonra içinde bulunduğumuz 10 yılın başına kadar beklenmesi gerekmişti. Günümüzdeki yapay zeka patlamasının tek sorumlusu derinlemesine öğrenmedir. Bilgisayarlar tıpkı bir insanın söylenen kelimeleri anlama yeteneğine benzer olağanüstü güçler kazandı. Derinlemesine öğrenme aslında bilgisayar vizyonunu dönüştürdü ve makine tercümesini dramatik boyutta artırdı. Ondan artık tıpta, finansmanda, imalatta ve daha nice alanda her türlü kilit kararların alınmasında rehber olarak faydalanılıyor. 

BİLİNMEZ OLMAK ZORUNDA DEĞİL

Elle programlanan bir sisteme kıyasla herhangi bir öğrenen makine teknolojisinin iç işleyişi doğası gereği bilgisayar bilimcileri için bile çok kapalı bir sistemdir. Ancak bu gelecekte tüm yapay zeka tekniklerinin aynı şekilde bilinmez olacağı anlamına gelmez. Fakat doğası gereği derinlemesine öğrenme kesinlikle kapkara bir kutudur. Derin bir sinir ağının nasıl çalıştığını görmek için tutup da içine bakamazsınız. Bu ağlarda mantık aslında karmaşık bir şekilde iç içe geçmiş düzinelerce ve hatta yüzlerce katmanda yerleştirilmiş binlerce taklit sinir hücresinin davranışlarının içinde saklıdır. İlk katmandaki sinirler, bir görüntünün piksel yoğunluğu gibi bir girdiyi alır ve sonra yeni bir sinyalin çıktısını üretmeden önce bir hesaplama yapar. Karmaşık bir ağda bir sonraki katmandaki sinirler bu çıktıyla beslenir ve genel bir çıktı üretilinceye kadar bu süreç sonraki katmanlarda tekrarlanır. Ayrıca ağın istenilen çıktıyı üretmeyi öğrenmesini sağlayacak şekilde tek tek sinirlerin hesaplamalar yapmasına olanak sağlayan ve geri yayılım denilen bir süreç daha vardır. Derin bir ağdaki çok sayıda katman onun nesneleri farklı soyutlama seviyelerinde tanıyabilmesini sağlar. Mesela sadece köpekleri tanımak için tasarlanmış bir sistemde alt katmanlar ana hatlar veya renk gibi basit şeyleri fark eder; daha üst katmanlar ise kürk veya gözler gibi biraz daha karmaşık özellikleri ayırt eder. En üstteki katman onu bir köpek olarak tanımlar. Aşağı yukarı aynı yaklaşım bir makineye kendi kendine öğretmesini sağlayan diğer girdilere de uygulanabilir: Bir konuşmada kelimeleri oluşturan seslere, bir metinde cümleleri oluşturan harflere ve kelimelere veya araba kullanmak için gerekli direksiyon hareketlerine…

~

DAHİYANE STRATEJİLER

Bu gibi sistemlerin içinde neler olup bittiğini ayrıntılı şekilde görmek ve açıklamak için dahiyane stratejilere başvuruldu. 2015 yılında Google’daki araştırmacılar derinlemesine öğrenmeye dayalı öyle bir görüntü algılama algoritması geliştirdi ki bu algoritma sadece fotoğraflardaki nesneleri tanımlamakla kalmıyor, aynı zamanda onları yeniden üretebiliyor ve değiştirebiliyordu da… Bu algoritmayı etkinlikle tersine doğru çalıştırdılar. Bu sayede programın örneğin bir kuşu veya binayı tanımakta kullandığı özellikleri keşferebildiler. Deep Dream (Derin Rüya) olarak bilinen bir proje tarafından üretilen resimlerde, bulutlardan ve tarlalardan fırlamış yaratık benzeri hayvanlarla ormanlar ve dağ tepelerinde parıldıyan evham verici tapınaklar gibi groteskler görünüyordu. Bu görüntüler derinlemesine öğrenmenin illa da esrarengiz olmak zorunda olmadığını ispatlamıştı. Araştırmacılar bu algoritmaların dikkatini bir kuşun gagası veya tüyü gibi alışıldık görsel özelliklere verdiğini ortaya çıkardı. Ancak bu görüntüler aynı zamanda derinlemesine öğrenmenin insani algılamadan ne kadar farklı olduğunun ipuçlarını da verdi, yani onlar bizim fark etmekte ihmal edebileceğimiz bir yapay olgudan anlam çıkarabiliyordu. Google araştırmacıları, algoritmalarının bir halter görüntüsünün yanında halteri tutan bir insan kolu da yarattığını gördü. Bu makine kolun bu şeyin bir parçası olduğu sonucuna varmıştı. Sinir bilim ve biliş bilimden fikirler ödünç alınarak bugünlerde daha da büyük ilerlemeler kaydediliyor. Wyoming Üniversitesi’nde bir doçent olan Jeff Clune liderliğindeki bir ekip, derin sinir ağlarını test etmek için göz yanılsamasının yapay zeka eşdeğerini kullandı. Clune’nun grubu 2015 yılında belirli görüntülerin böylesi bir ağı orada olmayan şeyleri algılamasını sağlayarak nasıl kandırabileceğini gösterdi, çünkü bu görüntüler bu sistemin aradığı alt seviye örüntüleri istismar ediyordu. Clune’un ekibinden Jason Yosinski de beyine saplanmış bir sonda gibi hareket edebilen bir araç geliştirdi. Bu araç ağın ortasındaki herhangi bir siniri hedef alıyor ve onu en fazla harekete geçiren görüntüyü arıyor. Keşfedilen görüntüler soyuttu (Bir flamingonun veya okul otobüsünün empresyonist bir resmini düşünün) ve bu makinenin algısal becerilerinin gizemli doğasına ışık tutuyorlardı. Ancak bizim yapay zekanın düşünme sistematiğine bir göz atmaktan fazlasını yapmamız gerekiyor ve burada kolay bir çözüm yok. Daha üst seviye örüntü algılama ve karmaşık kararlar almak için derin bir sinir ağının içindeki hesaplamaların karşılıklı etkileşimi çok önemli. Ancak bu hesaplamalar aslında bir matematiksel fonksiyonlar ve değişkenler kördüğümüdür. Jaakkola, “Eğer elinizde çok küçük bir sinir ağı varsa, onu anlayabilirsiniz. Ancak sinir ağı büyük bir hal aldığında ve yüzlerce katmana ulaşıp her katmanında da binlerce ünitesi olduğunda artık anlaşılmaz bir hal alır” diyor. Jaakkola’nın iş yerindeki odasının hemen yanındaki odada öğrenen makine kavramını tıbba uygulamaya kararlı bir MIT profesörü olan Regina Barzilay oturuyor. Şimdi 43 yaşında olan Barzilay’a birkaç yıl önce meme kanseri teşhisi konulmuştu. Bu teşhis kendi başına zaten yeterince şok ediciydi. Ancak Barzilay’ı asıl umutsuzluğa sevk eden onkoloji araştırmalarına yardımcı olması veya hasta tedavisine rehberlik etmesi için teknoloji şaheseri istatistiksel ve öğrenen makine yöntemlerinden burada faydalanılmamasıydı. Barzilay, yapay zekanın tıpta devrim yaratmak için müthiş bir potansiyeli olduğunu, ancak bu potansiyelin sadece tıbbi kayıtlarla sınırlı kalmaması gerektiğinin farkına varılmasının kaçınılmaz olduğunu söylüyor. Ham verilerden daha fazla faydalanılmadığını düşünüyor. 

ÖNGÖRÜLMEZ MAKİNELERLE NE KADAR İYİ GEÇİNEBİLİRİZ?

Geçen yıl kanser tedavisini tamamladıktan sonra Barzilay ve öğrencileri, araştırmacıların üzerinde çalışmak isteyebilecekleri türden hastaların tanımlanmasında patoloji raporlarının veri madenciliğini yapabilecek kapasitede bir sistem geliştirmek için Massachussets Genel Hastanesi’ndeki doktorlarla birlikte çalışmaya başladı. Ancak Barzilay bu sistemin kendi akıl yürütme yöntemini izah etmesi gerektiği kanısına varmıştı. Bu yüzden Jaakkola ve bir öğrencisiyle beraber bu sürece bir adım daha eklediler: Bu sistem kendi keşfettiği bir örüntünün temsilcisi olan metin kırpıntılarını çekip çıkarıyor ve onları betimliyor. Barzilay ve öğrencileri ayrıca mamogram görüntülerinden meme kanserinin erken belirtilerini algılayabilecek derinlemesine bir öğrenme algoritması da geliştiriyor ve onlar bu sisteme kendi mantığını açıklama becerisini de katmayı hedefliyor. Barzilay, “İnsan ile makine iş birliğine gittiğinde gerçekten bir çerçeveye ihtiyacınız olur” diyor. ABD ordusu araçların ve uçakların kullanımı, hedeflerin tespit edilmesi ve analistlerin devasa istihbarat bilgi yığınlarını incelemelerine yardımcı olması için öğrenen makinelerden faydalanan projelere milyarlar akıtıyor. Burada her yerden daha fazla, hatta tıptan bile daha fazla olacak şekilde algoritmik gizeme çok az yer var ve Savunma Bakanlığı izah edilemezliği kilit bir engel olarak görüyor. İleri Savunma Araştırma Projeleri Dairesi’nde bir program yöneticisi olan David Gunning Açıklanabilir Yapay Zeka programına nezaret ediyor. Eskiden sonrasında Siri’nin yaratılmasına dönüşen DARPA projesini yönetmiş beyaz saçlı bir emektar olan Gunning otomasyonun ordudaki sayısız alana emekleyerek girdiğini söylüyor. İstihbarat analistleri öğrenen makineleri yığınla birikmiş istihbari bilgiler içinden örüntüler tanımlamanın bir aracı olarak test ediyor. Burada çok sayıda otonom yer aracı ve uçak geliştiriliyor ve test ediliyor. Ancak askerler onlara kendisini izah etmeyen robot bir tankın içinde kendilerini muhtemelen pek huzurlu hissetmeyecek ve ayrıca analistler de belirli bir mantığa dayanmayan bilgilerle harekete geçmeye pek istekli olmayacak. Gunning, “Bu öğrenen makine sistemlerinin doğasında sıklıkla çok sayıda yanlış alarm vermek yatar. Bu yüzden bir istihbarat analisti bir tavsiyenin neden yapıldığını anlamak için kesinlikle ekstra yardıma gereksinim duyar” diyor. DARPA Gunning’in programı kapsamında fonlamak için akademiden ve endüstriden 13 tane proje seçti. Bu projelerden bazıları Washington Üniversitesi’nde bir profesör olan Carlos Guestrin liderliğinde yapılan çalışmanın üzerine kurulabilir. Guestrin ve meslektaşları öğrenen makine sistemleri için kendi çıktılarına bir gerekçe sunan bir yöntem geliştiriyor. Esasen bu yöntemde bir bilgisayar bir veri seti içinden otomatikman birkaç örnek buluyor ve onları kısa birer açıklamayla servis ediyor. Örneğin bir teröristten gelen bir e-postayı sınflandırmak için tasarlanmış bir sistem, kendi eğitimi ve karar verme süreci için milyonlarca mesajdan faydalanabiliyor. Ancak Washington ekibinin yaklaşımı kullanılarak bir mesajdaki belirli anahtar sözcükler gün ışığına çıkarılabilir. Guestrin’in grubu aynı zamanda görüntü algılama sistemleri için bir görüntünün en önemli parçalarını ön plana çıkararak kendi akıl yürütmesini hissettirmelerinin yollarını da araştırıyor. Bu yaklaşımın ve Barzilay’ınki gibi diğer benzerlerinin bir eksikliği ise sunulacak açıklamaların hep basitleştirilmiş olmasıdır ki bu da birtakım can alıcı bilgilerin yol boyunca kaybolması anlamına gelir. Guestrin, “Biz henüz yapay zekanın sizinle sohbet ettiği ve açıklama yapabilecek duruma geldiği rüyanın tamamlanması aşamasına gelemedik. Gerçekten tercüme edilebilir bir yapay zekaya sahip olmak için daha önümüzde çok uzun bir yol var” diyor. 

GÜVEN FAKTÖRÜ ÖNEMLİ 

Kanser teşhisi veya askeri manevralar gibi riskli durumlar için bunun illa da bir sorun teşkil etmesi gerekmez. Şayet bu teknoloji günlük yaşamımızın yaygın ve kullanışlı bir parçası olacaksa, yapay zekanın mantığını bilmek çok önem kazanacaktır. Apple’da Siri takımını yöneten Tom Gruber kendi ekibinin Siri’yi daha akıllı ve daha kapasiteli sanal bir asistan yapmak için çalışırken açıklanabilirliğin kilit bir ehemmiyete sahip olduğunu söylüyor. Grubber elbette ki Siri’nin geleceğine yönelik bariz planları burada paylaşamaz, ancak Siri’den bir restoran tavsiyesi aldığınızda onun hangi nedenle bu tavsiyeyi yaptığını bilmek isteyeceğinizi düşünmek çok kolaydır. Apple’da yapay zeka araştırmaları direktörü ve Carnegie Mellon Üniversitesi’nde profesör olan Ruslan Salakhutdinov, açıklanabilirliği insanlar ile akıllı makineler arasındaki ilişkinin evrimleşmesinin çekirdeği olarak görüyor. “Burada devreye güven faktörü girecek” diyor. Tıpkı insan davranışlarının pek çok yönünün ayrıntılarıyla izah edilmesinin mümkün olmaması gibi belki yapay zekanın da yaptığı her şeyi izah etmesinin mümkünatı olmayacak. Wyoming Üniversitesi’nden Clune, “Bir kimse size kendi eylemleri hakkında mantıklı bir açıklama yapsa bile bu muhtemelen eksik olacaktır ve aynısı pekala yapay zeka için de geçerli olabilir. Aklın sadece bir kısmının mantıklı bir açıklama yapabilmesi onun doğasının bir parçası olabilir. Onun diğer bir kısmı ise içgüdüsel veya altbilinçsel ya da esrarengiz olabilir” diyor. Eğer durum böyleyse o zaman bizim bir aşamada ya yapay zekanın muhakemesine güvenmemiz ya da onu kullanmaktan vazgeçmemiz gerekecek. Benzer şekilde bu muhakemenin sosyal zekayı da kapsaması gerekir. Nasıl ki bir toplum beklenen davranışlara dayalı bir sözleşme temelinde kuruluyorsa, bizim de yapay zekayı kendi sosyal normlarımıza uyacak ve onlara saygı gösterecek şekilde tasarlamamız gerekir. Eğer robot tanklar ve başka öldürme makineleri yaratacaksak, onların karar verme süreçlerinin bizim etik anlayışımızla uyumlu olması çok önemlidir.

Türkiye ve dünya ekonomisine yön veren gelişmeleri yorulmadan takip edebilmek için her yeni güne haber bültenimiz “Sabah Kahvesi” ile başlamak ister misiniz?


İLGİNİZİ ÇEKEBİLİR

Yorum Yaz