aitfindonesia's picture
Upload README.md with huggingface_hub
320c287 verified
metadata
license: apache-2.0
task_categories:
  - text-generation
language:
  - id
tags:
  - text
  - indonesian
  - continued_pretraining
  - domain-adaptation
  - news
  - crawling
  - playwright
size_categories:
  - 100M<n<1B
pretty_name: EOS Continued Pre-Training Dataset (Indonesia)

EOS Continued Pre-Training Dataset (Indonesia)

Deskripsi Dataset

EOS Continued Pre-Training Dataset adalah korpus teks bahasa Indonesia berskala besar (~214.2 Juta Token) yang dikurasi secara khusus untuk proses Continued Pre-Training (CPT) pada Large Language Models (LLM).

Dataset ini disusun sebagai bagian dari program Artificial Intelligence Talent Factory (AITF), kolaborasi antara Kementerian Komunikasi dan Digital (Komdigi) Republik Indonesia dan Universitas Brawijaya[cite: 713]. Tujuan utamanya adalah melakukan domain adaptation agar model fondasi (seperti Qwen/Llama) memahami konteks lokal, regulasi, dan terminologi spesifik Indonesia pada dua domain strategis:

  1. Pengawasan Ruang Digital (PRD)
  2. Digital Talent Pool (DTP)

Komposisi Data

Total volume dataset adalah 214.2 Juta Token yang terbagi menjadi tiga subset utama[cite: 65, 786]:

Kategori Deskripsi Domain Sumber Data Token (M) Proporsi
DTP (Digital Talent Pool) Berfokus pada pengembangan SDM digital, kebijakan talenta, standar kompetensi (SKKNI), tren okupasi TIK, dan pelatihan vokasi[cite: 109, 156]. Kemnaker, BPSDM Komdigi, LinkedIn, Job Portals, CNBC Indonesia, CNN Indonesia[cite: 786]. 94 M 43.9%
PRD (Pengawasan Ruang Digital) Berfokus pada isu patologi sosial di ruang digital seperti judi online, hoaks/disinformasi, penipuan siber, perlindungan data pribadi, dan regulasi ITE[cite: 108, 156]. Tribunnews, Republika, Antara, Tempo, Siaran Pers Komdigi[cite: 786]. 92 M 42.9%
General (Regularization) Pengetahuan umum, sejarah, geografi, dan budaya Indonesia untuk mencegah catastrophic forgetting dan menjaga kemampuan bahasa baku[cite: 786]. Wikipedia Bahasa Indonesia (Filtered Dump)[cite: 786]. 28.2 M 13.2%
TOTAL 214.2 M 100%

Metodologi Pengumpulan Data (Crawling)

Pengumpulan data dilakukan menggunakan teknik Web Crawling tingkat lanjut untuk menangani situs web modern yang dinamis[cite: 495].

Infrastruktur Crawling: Playwright

Berbeda dengan metode scraping konvensional, dataset ini dibangun menggunakan framework Playwright dengan Python[cite: 512]. Pendekatan ini dipilih karena:

  • Handling Dynamic Content (CSR): Banyak portal berita menggunakan Client-Side Rendering yang memuat konten secara asinkron. Playwright memungkinkan eksekusi JavaScript penuh (headless browser) untuk menangkap konten yang tidak ada di HTML statis[cite: 497, 513].
  • Asynchronous I/O: Dibangun di atas asyncio untuk melakukan request secara paralel (concurrency) dengan efisiensi tinggi[cite: 507].
  • Anti-Bot Detection: Menggunakan teknik stealth seperti rotasi User-Agent dan penghapusan properti navigator.webdriver untuk menghindari blokir[cite: 570, 571].

Struktur dan Format Data

Dataset ini disajikan dalam format Raw Text (.txt) untuk memudahkan proses streaming saat pelatihan.

  • Format File: .txt
  • Separator Dokumen: Token <im_end>
  • Struktur: Seluruh artikel digabungkan menjadi satu file teks panjang. Akhir dari setiap artikel/dokumen ditandai dengan token <im_end>.

Contoh Format (Raw Text)

Kementerian Komunikasi dan Digital terus menggalakkan pemberantasan judi online... [Konten Artikel 1] ...bertujuan melindungi masyarakat.
<im_end>