Görsel kaynağı: Unbounded AI tarafından oluşturuldu
16 Ağustos'ta OpenAI ekibi, daha tutarlı etiketleme, politika iyileştirme için daha hızlı geri bildirim döngüleri ve azaltılmış manuel inceleme katılımcısı katılımı sağlayan yeni bir yapay zeka kullanımını, içerik politikası geliştirme ve içerik denetleme kararları için GPT-4'ün kullanıldığını duyurdu.
İçerik moderasyonu, dijital platformların sağlığının korunmasında hayati bir rol oynar. OpenAI araştırmacıları, GPT-4 kullanan bir içerik moderasyon sisteminin politika değişikliklerini çok daha hızlı yineleyebileceğini ve döngü süresini aylardan saatlere indirebileceğini keşfetti.
Aynı zamanda GPT-4, uzun içerikli politika belgelerindeki kuralları ve nüansları yorumlayabilir ve politika güncellemelerine anında uyum sağlayarak daha tutarlı etiketler sağlar. Bu, yapay zekanın çevrimiçi trafiği platforma özgü politikalara göre düzenlemeye yardımcı olabileceği ve çok sayıda insan düzenleyicinin fiziksel ve zihinsel yükünü hafifletebileceği dijital platformların geleceği için daha olumlu bir vizyon sunuyor.
Ne tür bir kullanıcı mevcuttur: OpenAI API'ye erişimi olan herkes, kendi AI destekli denetleme sistemlerini oluşturmak için bu yaklaşımı uygulayabilir.
İçerik Denetleme Zorlukları
İçerik moderasyonu, titiz bir çaba, hassasiyet, derin bir bağlam anlayışı ve yeni kullanım durumlarına hızlı adaptasyon gerektirir, bu da süreci zaman alıcı ve zorlu hale getirir. Geleneksel olarak, bu görevin yükü, daha küçük dikey özel makine öğrenimi modelleriyle desteklenen, zehirli ve zararlı materyalleri filtrelemek için büyük hacimli içeriği eleyen insan küratörlere binmiştir. Bu süreç doğası gereği yavaştır ve insanlar için zihinsel olarak stresli olabilir.
Büyük dil modeli (LLM) kullanılarak çözüldü
OpenAI araştırma ekibi, bu zorlukların üstesinden gelmek için LLM'lerin kullanımını araştırıyor. GPT-4 gibi büyük dil modellerinin doğal dili anlayabildiğini ve üretebildiğini, bu da onları içerik denetimi için uygun hale getirdiğini savunuyorlar. Bu modeller, kendilerine sağlanan politika rehberliğine dayalı olarak ılımlı kararlar verebilir.
Sistem ile içerik moderasyon politikaları geliştirme ve özelleştirme süreci aylardan saatlere indirildi.
İncelenmek üzere politika yönergeleri geliştirildiğinde, politika uzmanları az sayıda örnek belirleyerek ve politikaya göre bunlara etiketler atayarak altın bir veri seti oluşturabilir.
GPT-4 daha sonra politikayı okur ve aynı veri kümesine bir etiket atar, ancak yanıtı görmez.
Politika uzmanları, GPT-4'ün yargıları ile insan yargıları arasındaki tutarsızlıkları inceleyerek GPT-4'ten etiketlerinin arkasındaki mantığı bulmasını, politika tanımlarındaki belirsizlikleri analiz etmesini, karışıklığı çözmesini ve buna göre politikaya ilişkin daha fazla içgörü sağlamasını isteyebilir. Politika kalitesinden memnun kalana kadar 2. ve 3. adımları tekrarlayabiliriz.
Bu yinelemeli süreç, sınıflandırıcılara çevrilen rafine edilmiş içerik ilkeleri sağlayarak, ilke ve içerik denetiminin ölçekte dağıtılmasına olanak tanır.
Alternatif olarak, büyük miktarda veriyi geniş ölçekte işlemek için daha küçük bir modelde ince ayar yapmak üzere GPT-4'ün tahminlerini kullanabiliriz.
Bu basit ama güçlü fikir, geleneksel içerik denetleme yöntemlerine göre çeşitli iyileştirmeler sunar:
Etiketler daha tutarlıdır. İçerik politikaları sürekli gelişmektedir ve genellikle çok ayrıntılıdır. İnsanlar politikayı farklı yorumlayabilir veya bazı moderatörlerin yeni politika değişikliklerini sindirmesi daha uzun sürebilir ve bu da tutarsız etiketlemeye neden olabilir. Buna karşılık, LL.M. ifadelerdeki nüanslara duyarlıdır ve politika güncellemelerine anında uyum sağlayarak kullanıcılara tutarlı bir içerik deneyimi sunar.
Daha hızlı geri bildirim döngüleri. Yeni politikalar oluşturmak, bunları etiketlemek ve insanlardan geri bildirim toplamaktan oluşan politika güncellemeleri döngüsü genellikle uzun ve yorucu bir süreçtir. GPT-4, bu süreci birkaç saate indirerek yeni tehlikelere daha hızlı yanıt verilmesini sağlayabilir.
Zihinsel yükü azaltın. Zararlı veya sakıncalı içeriğe sürekli maruz kalmak, moderatör için duygusal tükenmeye ve psikolojik strese neden olabilir. Bu tür görevleri otomatikleştirmek, dahil olanların refahına fayda sağlar.
Yukarıdaki diyagram, GPT-4'ün içerik denetleme için nasıl kullanıldığını açıklar (politika geliştirmeden büyük ölçekli denetlemeye kadar)
Neyin güvenli olup neyin olmadığına dair modelin kendi iç yargılarına dayanan Anayasal Yapay Zekanın aksine, OpenAI'nin yaklaşımı platforma özgü içerik ilkelerini daha hızlı ve daha az çabayla yinelemeyi sağlar.
(Üst) GPT-4'ün etiketleme kalitesi, az eğitimli insan incelemecilere benzer (B Havuzu). Ancak, deneyimli ve iyi eğitimli bir insan moderatör (Havuz A) yine de her ikisinden de daha iyi performans gösterir.
OpenAI araştırma ekibi, örneğin zincirleme akıl yürütme veya özeleştiriyi dahil ederek, GPT-4'ün tahmin kalitesinde daha fazla iyileştirmeyi aktif olarak araştırıyor. Aynı zamanda, bilinmeyen risk yöntemlerini de tespit etmeye çalışıyor ve Anayasal Yapay Zeka'dan ilham alarak, potansiyel olarak zararlı içeriği belirlemek ve zararlı içeriğin üst düzey bir tanımını vermek için modeller kullanmayı hedefliyor. Bu bulgular daha sonra mevcut içerik politikalarına yönelik güncellemeleri veya tamamen yeni risk alanlarını hedefleyen politikaların geliştirilmesini bilgilendirecektir.
*Not: Anayasal Yapay Zeka, yapay zeka sistemlerini insan niyetiyle uyumlu hale getirmek için "ilke tabanlı" bir yaklaşım sağlamayı amaçlayan ve ChatGPT'ye izin veren büyük ölçekli model ürünü Claude için OpenAI'nin eski üyeleri tarafından kurulan rakip Anthropic tarafından geliştirilen bir mekanizmadır. benzeri modeller, soruları yanıtlamak için bir kılavuz olarak basit bir dizi ilke kullanır. *
View Original
This page may contain third-party content, which is provided for information purposes only (not representations/warranties) and should not be considered as an endorsement of its views by Gate, nor as financial or professional advice. See Disclaimer for details.
OpenAI ekibi, bir içerik inceleme sistemi oluşturmak ve manuel katılımı azaltmak için en son GPT-4 kullanımını yayınladı.
16 Ağustos'ta OpenAI ekibi, daha tutarlı etiketleme, politika iyileştirme için daha hızlı geri bildirim döngüleri ve azaltılmış manuel inceleme katılımcısı katılımı sağlayan yeni bir yapay zeka kullanımını, içerik politikası geliştirme ve içerik denetleme kararları için GPT-4'ün kullanıldığını duyurdu.
İçerik moderasyonu, dijital platformların sağlığının korunmasında hayati bir rol oynar. OpenAI araştırmacıları, GPT-4 kullanan bir içerik moderasyon sisteminin politika değişikliklerini çok daha hızlı yineleyebileceğini ve döngü süresini aylardan saatlere indirebileceğini keşfetti.
Aynı zamanda GPT-4, uzun içerikli politika belgelerindeki kuralları ve nüansları yorumlayabilir ve politika güncellemelerine anında uyum sağlayarak daha tutarlı etiketler sağlar. Bu, yapay zekanın çevrimiçi trafiği platforma özgü politikalara göre düzenlemeye yardımcı olabileceği ve çok sayıda insan düzenleyicinin fiziksel ve zihinsel yükünü hafifletebileceği dijital platformların geleceği için daha olumlu bir vizyon sunuyor.
Ne tür bir kullanıcı mevcuttur: OpenAI API'ye erişimi olan herkes, kendi AI destekli denetleme sistemlerini oluşturmak için bu yaklaşımı uygulayabilir.
İçerik Denetleme Zorlukları
İçerik moderasyonu, titiz bir çaba, hassasiyet, derin bir bağlam anlayışı ve yeni kullanım durumlarına hızlı adaptasyon gerektirir, bu da süreci zaman alıcı ve zorlu hale getirir. Geleneksel olarak, bu görevin yükü, daha küçük dikey özel makine öğrenimi modelleriyle desteklenen, zehirli ve zararlı materyalleri filtrelemek için büyük hacimli içeriği eleyen insan küratörlere binmiştir. Bu süreç doğası gereği yavaştır ve insanlar için zihinsel olarak stresli olabilir.
Büyük dil modeli (LLM) kullanılarak çözüldü
OpenAI araştırma ekibi, bu zorlukların üstesinden gelmek için LLM'lerin kullanımını araştırıyor. GPT-4 gibi büyük dil modellerinin doğal dili anlayabildiğini ve üretebildiğini, bu da onları içerik denetimi için uygun hale getirdiğini savunuyorlar. Bu modeller, kendilerine sağlanan politika rehberliğine dayalı olarak ılımlı kararlar verebilir.
Sistem ile içerik moderasyon politikaları geliştirme ve özelleştirme süreci aylardan saatlere indirildi.
Bu yinelemeli süreç, sınıflandırıcılara çevrilen rafine edilmiş içerik ilkeleri sağlayarak, ilke ve içerik denetiminin ölçekte dağıtılmasına olanak tanır.
Alternatif olarak, büyük miktarda veriyi geniş ölçekte işlemek için daha küçük bir modelde ince ayar yapmak üzere GPT-4'ün tahminlerini kullanabiliriz.
Bu basit ama güçlü fikir, geleneksel içerik denetleme yöntemlerine göre çeşitli iyileştirmeler sunar:
Etiketler daha tutarlıdır. İçerik politikaları sürekli gelişmektedir ve genellikle çok ayrıntılıdır. İnsanlar politikayı farklı yorumlayabilir veya bazı moderatörlerin yeni politika değişikliklerini sindirmesi daha uzun sürebilir ve bu da tutarsız etiketlemeye neden olabilir. Buna karşılık, LL.M. ifadelerdeki nüanslara duyarlıdır ve politika güncellemelerine anında uyum sağlayarak kullanıcılara tutarlı bir içerik deneyimi sunar.
Daha hızlı geri bildirim döngüleri. Yeni politikalar oluşturmak, bunları etiketlemek ve insanlardan geri bildirim toplamaktan oluşan politika güncellemeleri döngüsü genellikle uzun ve yorucu bir süreçtir. GPT-4, bu süreci birkaç saate indirerek yeni tehlikelere daha hızlı yanıt verilmesini sağlayabilir.
Zihinsel yükü azaltın. Zararlı veya sakıncalı içeriğe sürekli maruz kalmak, moderatör için duygusal tükenmeye ve psikolojik strese neden olabilir. Bu tür görevleri otomatikleştirmek, dahil olanların refahına fayda sağlar.
Neyin güvenli olup neyin olmadığına dair modelin kendi iç yargılarına dayanan Anayasal Yapay Zekanın aksine, OpenAI'nin yaklaşımı platforma özgü içerik ilkelerini daha hızlı ve daha az çabayla yinelemeyi sağlar.
OpenAI araştırma ekibi, örneğin zincirleme akıl yürütme veya özeleştiriyi dahil ederek, GPT-4'ün tahmin kalitesinde daha fazla iyileştirmeyi aktif olarak araştırıyor. Aynı zamanda, bilinmeyen risk yöntemlerini de tespit etmeye çalışıyor ve Anayasal Yapay Zeka'dan ilham alarak, potansiyel olarak zararlı içeriği belirlemek ve zararlı içeriğin üst düzey bir tanımını vermek için modeller kullanmayı hedefliyor. Bu bulgular daha sonra mevcut içerik politikalarına yönelik güncellemeleri veya tamamen yeni risk alanlarını hedefleyen politikaların geliştirilmesini bilgilendirecektir.
*Not: Anayasal Yapay Zeka, yapay zeka sistemlerini insan niyetiyle uyumlu hale getirmek için "ilke tabanlı" bir yaklaşım sağlamayı amaçlayan ve ChatGPT'ye izin veren büyük ölçekli model ürünü Claude için OpenAI'nin eski üyeleri tarafından kurulan rakip Anthropic tarafından geliştirilen bir mekanizmadır. benzeri modeller, soruları yanıtlamak için bir kılavuz olarak basit bir dizi ilke kullanır. *