Yapay Zekaya Giriş – Embedding Nedir

Embedding Nedir?

“Yazı → Sayı” makinesi.
Metni bilgisayarın anlayabileceği sayılara çevirir.

Günlük Hayattan Örnek:

  • Instagram’da fotoğraf etiketlersin: #tatlı, #manzara, #kedi
  • Embedding de böyle: Her kelimeye “gizli etiketler” yapıştırır
  • “Kedi” kelimesi = [hayvan: 0.9, evcil: 0.8, tüylü: 0.7, …]

🎯 Neden Gerekli?

DurumProblemEmbedding Çözümü
Bilgisayar “kedi” yazısını görüyorAnlamıyor!Sayılara çeviriyor: [0.2, 0.8, -0.3]
“Büyük” ve “kocaman” kelimeleri varBilgisayar bunların benzer olduğunu bilmiyorYakın sayılar veriyor
“Sıcak” ve “soğuk” kelimeleri varZıt olduğunu bilmiyorZıt yönlerde sayılar veriyor

🔢 Nasıl Çalışır? (3 Adım)

1. Adım: Kelimeleri Sayıya Çevir

"kedi" → [0.2, 0.8, -0.1, 0.5]
"köpek" → [0.3, 0.7, -0.2, 0.6]
"araba" → [-0.8, 0.1, 0.9, -0.3]

2. Adım: Benzerlikleri Yakala

  • Kedi ve köpek yakın sayılar → Hayvanlar
  • Kedi ve araba uzak sayılar → Farklı kategoriler

3. Adım: Matematik Yap

  • Toplama: “kral” + “kadın” – “erkek” = “kraliçe”
  • Çıkarma: “Türkiye” – “Ankara” + “Paris” = “Fransa”

📊 Embedding Türleri (Basitçe)

1. Word Embedding (Kelime Seviyesi)

  • Her kelimeye tek numara
  • Örnek: “kedi” = [0.2, 0.5, 0.1]
  • Kullanım: Basit projeler için

2. Sentence Embedding (Cümle Seviyesi)

  • Tüm cümleye tek numara
  • Örnek: “Kedi ağaçtan indi” = [0.3, -0.2, 0.7]
  • Kullanım: Cümle karşılaştırma için

3. Contextual Embedding (Akıllı Tür)

  • Aynı kelime, farklı yer → farklı numara
  • Örnek:
    • “Elma yedi” → yedi = [0.4, 0.1] (yemek)
    • “Kitap yedi” → yedi = [0.3, -0.2] (bitirmek)
  • Kullanım: ChatGPT, BERT

🛠️ Pratik Kullanım Alanları

1. Arama Motorları

  • “İphone tamiri” yazdığında
  • “iPhone onarım”, “iPhone servis” sonuçları da gelir
  • Sebep: Embedding benzer kelimeleri bulur

2. Öneri Sistemleri

  • Netflix’te komedi filmi izledin
  • Başka komedi filmleri önerir
  • Sebep: “komedi” embedding’i benzerleri bulur

3. Çeviri

  • “Hello” → [0.3, 0.4]
  • “Merhaba” → [0.28, 0.42]
  • Sebep: Yakın sayılar → Anlam aynı

💡 Kendi Embedding’ini Yapmak

Kolay Yol (2 adım):

  1. Hazır model kullan:python# Word2Vec, GloVe, BERT hazır modelleri # “kedi” → hazır numaralar
  2. Kendi verinle ayarla:
    • Özel kelimelerin varsa (şirket terimleri)
    • Hazır modeli kendi verinle güncelle

🎯 Özet Tablo

ÖzellikEmbedding ÖncesiEmbedding Sonrası
Bilgisayar anlar mı?HayırEvet
Benzer kelimeler bulunur mu?HayırEvet
Matematik yapılır mı?HayırEvet
Örnek“kedi” = “kedi”“kedi” = [0.2, 0.8]

⚡ Pratik İpuçları

  1. Yeni başlıyorsan: Hazır embedding kullan (Word2Vec)
  2. Türkçe için: FastText veya BERT Turkish
  3. Özel kelimelerin varsa: Kendi embedding’ini eğit
  4. Basit projeler için: 50-100 boyut yeterli
  5. Profesyonel için: 300+ boyut kullan

🤖 En Popüler Embedding’ler

  1. Word2Vec (Google) → En basit
  2. GloVe (Stanford) → Daha iyi
  3. FastText (Facebook) → Türkçe iyi
  4. BERT (Google) → En akıllısı

❓ Sık Sorulan Sorular

Q: Embedding boyutu ne kadar olmalı?
A: 50-300 arası. Çok büyükse yavaşlar, küçükse öğrenemez.

Q: Her projede gerekli mi?
A: Evet! Makineye yazı okutacaksan şart.

Q: Kendi embedding’imi ne zaman eğitmeliyim?
A: Özel kelimelerin varsa (tıbbi terimler, şirket jargonu).

Q: Embedding = tokenizasyon mu?
A: Hayır! Tokenizasyon parçalar, embedding sayıya çevirir.

✨ Son Söz

Embedding, yazıyı bilgisayar diline çeviren sihirli sözlük gibidir. Ne kadar iyi embedding, o kadar akıllı yapay zeka.

Basit kural:
Yazıyla çalışıyorsan → Tokenizasyon yap → Embedding’e çevir → Modeline ver

Bu kadar! Artık embedding’in ne olduğunu biliyorsun. Pratik yapmak için Google Colab’da küçük bir Word2Vec denemesi yapabilirsin.

Yorum gönder