Yapay Zeka nedir? Yapay Zeka Modelleri, Özellikleri, Ai Terimleri

Ahmet Akdel
By Ahmet Akdel - Editor
Yapay Zeka nedir? Yapay Zeka Modelleri, Özellikleri, Ai Terimleri

Yapay zeka nedir?

Büyük ölçekli verileri akıllı algoritmalar ve yinelemeli işlemleri birleştirerek çalışan, araştıran, tahminlerde bulunan, sorun çözen büyük dil modellerine denir. Yapay zeka fiziksel olarak insan sinir sisteminden esinlenerek matematiksel olarak tasarlanan görsel algılama, konuşma ve ses tanıma, hareket, muhasebe ve muhakeme yeteneğine sahip büyük dil modelleri (LLM) ile kendi kendine öğrenebilen yazılımsal ve donanımsal işlemlerin tamamı yapay zekadır.

Yapay Zeka

Yapay zeka için hangi programlama dillerini öğrenmeliyim?

Yapay Zeka ve Veri biliminde en çok kullanılan 5 programlama dilleri

  • Python (%57),
  • C/C++ (%44),
  • Java (%41),
  • R (%37), ve
  • JavaScript (%28) dir.

Sizlere daha önce yapay zeka modellerini karşılaştırmıştık. En iyi yapay zeka modellerini incelediğimiz yazıya buradan göz atabilirsiniz. Bu rehberimizde yapay zeka ile ilgili temel terimleri verecek ardından özelliklerini ve yapay zekanın çalışma sistemini anlatacağız. Yapay zekanın temelini öğrenme oluşturur.

İngilizce’de 1 token ~= 4 karakter
1 token ~= ¾ kelime
100 jeton ~= 75 kelime

1-2 cümle ~= 30 jeton
1 paragraf ~= 100 jeton
1.500 kelime ~= 2048 belirteç

Genel bir kural olarak, bir belirteç genellikle yaygın İngilizce metin için ~4 karakterlik bir metne karşılık gelir. Bu da kabaca bir kelimenin ¾’üne karşılık gelir (yani 100 belirteç ~= 75 kelime)
OpenAI’nin büyük dil modelleri (bazen GPT’ler olarak da adlandırılır), bir metin kümesinde bulunan ortak karakter dizileri olan belirteçleri kullanarak metni işler.

LLM’ler, geniş veri kümeleri üzerinde eğitildiklerinde kapsamlı bir dil anlayışına sahip olsalar da, özel görevlerde her zaman başarılı olmayabilirler. Tıpkı bir pratisyen hekimin geniş bilgiye sahip olmasına rağmen uzmanlaşmış ameliyatları gerçekleştirememesi gibi, LLM’ler de ince ayar yapmadan belirli görevler için optimum sonuçlar sağlayamayabilir. Talimat ve ince ayarlama bu boşluğu doldurmayı ve LLM’yi belirli alanlarda veya işlevlerde uzman olacak şekilde şekillendirmeyi amaçlar.

LLM’lerde ince ayarlama, modelin genel bilgisini daraltarak onu belirli görevlerde veya talimatlarda becerikli hale getiren özel bir ince ayarlama sürecidir. Bir LLM geniş bir derlem üzerinde kapsamlı bir eğitimden geçtikten sonra, talimat-ayarlama bu geniş kapsamlı kavrayışı, belirli sorgulara veya görevlere daha yüksek doğruluk ve hassasiyetle hitap edecek şekilde geliştirir.

Geleneksel olarak, LLM’ler öncelikle metinsel verilerle çalışmak üzere tasarlanmıştır. Sonuç olarak, görüntüleri, videoları ve sesleri kapsayan çok modlu girdileri anlamalarını ve bunlarla etkileşime girmelerini sağlamak önemli zorluklar ortaya çıkarmıştır. Son gelişmeler yenilikçi bir yaklaşım önermektedir: çok modlu girdileri barındırmak için LLM’lerin önceden eğitilmiş sağlam bilgi tabanlarından yararlanmak. Bu sayede, LLaMA[2] gibi açık kaynaklı LLM’lerin sadece işlemekle kalmayıp aynı zamanda çeşitli veri türlerinden anlamlı yorumlar türetecek şekilde ince ayarlanabileceği görülmüştür. Bu evrim, daha çok yönlü ve kapsamlı yapay zeka sistemlerine doğru önemli bir sıçramayı işaret eden bütünsel bir çok modlu anlayış ve muhakeme elde etmeyi amaçlamaktadır.

Yapay Zeka Kaynaklar

Yapay Zeka öğrenebileceğiniz eğitim kaynakları; CourseraUdacityedXfast.aiUdemyGoogle

Makine Öğrenmesi El Kitabı

Derin Öğrenme El Kitabı

Stanford Üniversitesi:

MIT (Massachusetts Teknoloji Enstitüsü):

Hacettepe Üniversitesi:

Kelime Tabanlı Tokenizasyon
Bir metin belgesi, gerekli belirteçleri oluşturmak için kelimelere ayrılır. Bu metin bölme işlemi, tek bir kelimeyi tanımlamak için belirli sabit kodlu kurallar içerdiğinden kural tabanlı tokenizasyon olarak da adlandırılır. En yaygın kural beyaz boşluğa dayalı bölme işlemidir. Örnek olarak aşağıdaki cümleyi ele alalım:

“Güneşli bir gün!”

Cümleyi beyaz boşluğa göre böldüğümüzde şu belirteçleri elde ederiz; “It’s”, “a”, “sunny”, “day!”. Bu kelimeler ayrı ayrı işlenebildikleri için makine öğrenimi modeline daha fazla bilgi sağlar.

Modeller bu belirteçler arasındaki istatistiksel ilişkileri anlamayı öğrenir ve bir dizi belirteçte bir sonraki belirteci üretmede iyidir. Bir metin parçasının bir dil modeli tarafından nasıl tokenize edilebileceğini, metin parçasındaki toplam token sayısını anlamayı, Tokenler ile ilgili detaylı bilgi ve hesaplama için Openai Token sayfasına gözatabilirsiniz.

Model: Tescilli, açık kaynak ve açık ağırlık modelleri dahil olmak üzere büyük bir dil modeli (LLM).
Model Oluşturucu: Modeli geliştiren ve eğiten kuruluş. Örneğin, OpenAI GPT-4’ü yapan firmadır. Meta Llama 3’ün yapmıştır.
Uç Nokta: Bir API aracılığıyla erişilebilen bir modelin barındırılan bir örneği. Tek bir modelin farklı sağlayıcılarda birden fazla uç noktası olabilir.
Sağlayıcı: Bir API aracılığıyla bir veya daha fazla model uç noktasına ev sahipliği yapan ve erişim sağlayan bir şirket. Örnekler arasında OpenAI, AWS Bedrock, Together.ai ve daha fazlası yer alır. Şirketler genellikle hem Model Oluşturucu hem de Sağlayıcıdır.
Sunucusuz: Kullanıldıkça sağlanan bulut hizmeti, LLM çıkarım API’leri ile ilgili olarak genellikle girdi ve çıktı belirteci başına fiyatlandırma anlamına gelir. Sunucusuz bulut ürünleri hala sunucular üzerinde çalışmaktadır!
Açık Ağırlıklar: Ağırlıkları modelin yaratıcısı tarafından kamuya açık olarak yayınlanan bir model. Birçok açık LLM, açık kaynaklı yazılımın tam tanımını karşılamayan lisanslarla yayınlandığından, ‘açık kaynak’ yerine ‘açık ağırlıklar’ veya sadece ‘açık’ modellerden bahsediyoruz.
Token: Modern LLM’ler, sözcüklerin ve karakterlerin sayısal gösterimleri olan belirteçler etrafında inşa edilmiştir. LLM’ler belirteçleri girdi olarak alır ve çıktı olarak belirteçler üretir. Girdi metni bir tokenizer tarafından tokenlara çevrilir. Farklı LLM’ler farklı tokenizerlar kullanır.
OpenAI Belirteçleri: OpenAI’nin GPT-3.5 ve GPT-4 belirteçleştiricisi tarafından üretilen belirteçler, genellikle OpenAI’nin Python için tiktoken paketi ile Yapay Analiz kıyaslaması için ölçülür. Modeller arasında adil karşılaştırmalara olanak tanımak için OpenAI belirteçlerini Yapay Analiz genelinde standart bir ölçüm birimi olarak kullanıyoruz. Tüm ‘saniye başına belirteç’ ölçümleri OpenAI belirteçlerini ifade eder.
Yerel Jetonlar: Bir LLM’nin kendi tokenizer’ı tarafından üretilen token’lar. ‘OpenAI belirteçleri’nden ayırt etmek için ‘yerel belirteçler’den bahsediyoruz. Fiyatlar genellikle yerel belirteçleri ifade eder.
Fiyat (Girdi/Çıktı): Bir sağlayıcı tarafından modele gönderilen girdi belirteci başına ve modelden alınan çıktı belirteci başına alınan fiyat. Gösterilen fiyatlar, sağlayıcılar tarafından listelenen güncel fiyatlardır.
Fiyat (Harmanlanmış): Daha kolay karşılaştırma yapılabilmesi için girdi ve çıktı tokenlarının 3:1 oranında olduğu varsayılarak harmanlanmış bir fiyat hesaplanır.
(3 * Girdi Fiyatı + Çıktı Fiyatı) / 4
İlk Belirtece Kadar Geçen Süre (TTFT): API’ye bir istek gönderilmesi ile yanıtın ilk belirtecinin alınması arasında geçen saniye cinsinden süre.
İlk Belirtecin Gelme Zamanı – İsteğin Gönderilme Zamanı
Verim (Saniye Başına Jeton Sayısı): İlk belirteç alındıktan sonra saniye başına alınan ortalama belirteç sayısı.
(Toplam Belirteçler – İlk Yığın Belirteçleri) / (Son Belirteç Yığınının Alındığı Zaman – İlk Belirteç Yığınının Alındığı Zaman)
Toplam 100 Çıktı Jetonu için Yanıt Süresi: Uçtan uca ölçülen 100 çıktı belirteci oluşturmak için gereken saniye sayısı.
İlk Jetona Kadar Geçen Süre + (100 / Saniye Başına Verim Jetonu)
Kalite Endeksi: Modellerin göreceli kalitesini anlamak için basitleştirilmiş bir metrik. Şu anda Chatbot Arena Elo Score, MMLU ve MT Bench’in normalleştirilmiş değerleri kullanılarak hesaplanmaktadır. Bu değerler normalleştirilir ve modellerin kolay karşılaştırılması için birleştirilir. Kalite Endeksinin, özellikle dağılım grafiklerinde kaliteyi hız veya fiyat metrikleriyle karşılaştırırken modellerin göreceli konumlarını karşılaştırmak için yararlı olabiliyor.

Yapay Zeka Modelleri

Yapay Zeka Makine Öğrenimi, Derin Öğrenme, Doğal Dil İşleme, Chatbot Sohbet Robotu, Sinir Ağı, Robotik, Algoritma, Big Data Büyük Veri, Bulut Bilişim, Nesnelerin İnterneti, Veri Madenciliği, Bilgisayar Görüşü, Denetimli Öğrenme, Denetimsiz Öğrenme, Takviyeli Öğrenme, Yapay Zekada Önyargı, Veri İşleme, Aktarım Öğrenmesi, Yapay Zeka Hukuku ve Etiği gibi Yapay zeka modelleri ve yapay zeka türleri bulunur.

Yapay Zeka Büyük Dil Modelleri

  • GPT yada nâmı diğer ChatGPT –> Openai firması tarafından geliştirilmektedir.
  • Claude –> Anthropic in geliştirdiği firmanın en önemli ve büyük yatırımcısı Amazon
  • LLaMA–> Facebook, Instagram, WhatsApp ın sahibi META nın açık kaynak geliştirdiği yapay zeka
  • ORCA–> Microsoft tarafından geliştirilen açık kaynak Microsoft Research yapay zeka ürünü
  • Cohere–> Cohore firması yapay zeka alanına ilk giren firmalardan. Yatırımcıları arasında Nvidia, Oracle, Salesforce Ventures ve Cisco gibi Dünya devleri bulunuyor.
  • Gemini – Önceki adı BART olan ve Google tarafından geliştirilen büyük yapay zeka modeli.
  • PaLM –> Google içinde geliştirilen bir başka büyük dil modelidir.

Yapay zeka’nın ne olduğu, yapay zeka özellikleri, türleri, yapay zeka terimleri, büyük yapay zeka modelleri ve ait oldukları şirketleri detaylı olarak bu rehberimizde işledik. Yapay Zeka firmaları ve ürünlerini buradan karşılaştırabilirsiniz.


Dijital Teknoloji Blogu sitesinden daha fazla şey keşfedin

Subscribe to get the latest posts sent to your email.

Share This Article
Leave a Comment

Bir yanıt yazın

E-posta adresiniz yayınlanmayacak. Gerekli alanlar * ile işaretlenmişlerdir