Pemko Pekanbaru
Super Hub Pemko Pekanbaru

Pelajaran Sekolah

50 Soal dan Kunci Jawaban Post‑Test Pembelajaran Mendalam/ Deep Learning untuk Ujian dan Evaluasi

Berikut 50 Soal dan Kunci Jawaban Post‑Test Pembelajaran Mendalam (Deep Learning) untuk Ujian dan Evaluasi

Tribunpekanbaru.com
Ilustrasi - 50 Soal dan Kunci Jawaban Post‑Test Pembelajaran Mendalam/ Deep Learning untuk Ujian dan Evaluasi 

TRIBUNPEKANBARU.COM - Apakah Anda sedang mencari soal post-test deep learning untuk pemula sebagai bahan latihan?

Nah, artikel ini menyajikan bank soal pembelajaran mendalam dengan jawaban yang lengkap dan mudah dipahami.

Dengan contoh soal yang mencakup CNN, RNN, dan LSTM, Anda bisa lebih siap menghadapi contoh soal ujian deep learning AI.

Setiap soal dilengkapi dengan jawaban singkat agar bisa langsung digunakan untuk latihan soal deep learning dengan kunci jawaban.

Artikel ini cocok bagi siswa, mahasiswa, maupun profesional yang ingin mempersiapkan soal evaluasi kompetensi pembelajaran mendalam.

Selain itu, tersedia panduan untuk memahami contoh soal CNN, RNN, dan LSTM secara praktis.

Bagi yang mengikuti kursus atau pelatihan AI, artikel ini juga membantu persiapan ujian kursus deep learning.

Semua soal dan jawaban bisa digunakan sebagai referensi untuk post-test deep learning online + jawaban.

Dengan membaca artikel ini, Anda akan menemukan soal dan jawaban deep learning untuk HR dan rekrutmen yang relevan dan siap digunakan.

Berikut 50 contoh soal spesifik untuk post-test pembelajaran mendalam (Deep Learning), lengkap dengan tipe soal (pilihan ganda, isian singkat, dan studi kasus). dapat digunakan untuk latihan atau evaluasi.

Bagian A: Pilihan Ganda (30 Soal)

1. Apa fungsi ReLU dalam jaringan saraf?
   a. Mengurangi dimensi data
   b. Memperkenalkan non-linearitas
   c. Mengoptimalkan loss
   d. Menormalkan data

2. Fungsi softmax digunakan untuk …
   a. Klasifikasi multi-kelas
   b. Regresi linear
   c. Regularisasi
   d. Mengurangi overfitting

3. Layer konvolusi (CNN) biasanya digunakan untuk …
   a. Pemrosesan teks
   b. Analisis deret waktu
   c. Analisis gambar
   d. Optimisasi gradient

4. Fungsi loss cross-entropy cocok untuk …
   a. Regresi
   b. Klasifikasi
   c. Autoencoder
   d. Generative model

5. Overfitting terjadi ketika …
   a. Model terlalu sederhana
   b. Model terlalu kompleks dan performa buruk di data baru
   c. Dataset terlalu besar
   d. Dataset terlalu seimbang

6. Apa tujuan dropout?
   a. Mempercepat training
   b. Mengurangi overfitting
   c. Menambahkan fitur baru
   d. Menormalkan data

7. Gradient descent digunakan untuk …
   a. Menentukan arsitektur jaringan
   b. Mengoptimalkan bobot jaringan
   c. Membuat dataset
   d. Menentukan ukuran batch

8. Optimizer Adam adalah kombinasi dari …
   a. SGD + momentum
   b. RMSProp + momentum
   c. Adagrad + momentum
   d. SGD + regularisasi

9. Epoch dalam training neural network berarti …
   a. Jumlah batch
   b. Satu kali melewati seluruh dataset
   c. Jumlah neuron
   d. Ukuran data

10. Batch normalization membantu …
    a. Mengurangi overfitting
    b. Mempercepat konvergensi
    c. Mengurangi noise dataset
    d. Mengganti optimizer

11. Apa fungsi activation sigmoid?
    a. Non-linear mapping 0–1
    b. Mengubah loss function
    c. Optimasi bobot
    d. Dropout neuron

12. LSTM digunakan untuk …
    a. Pemrosesan gambar
    b. Analisis deret waktu atau sequence data
    c. Regularisasi model
    d. Autoencoding

13. GAN terdiri dari …
    a. Generator dan Discriminator
    b. Encoder dan Decoder
    c. Input layer dan Output layer
    d. Hidden layer dan Output layer

14. Transfer learning biasanya dilakukan dengan …
    a. Training model dari nol
    b. Memanfaatkan model pretrained
    c. Menambah dropout
    d. Menambah batch size

15. Fungsi sigmoid cross-entropy loss digunakan untuk …
    a. Klasifikasi binary
    b. Klasifikasi multi-class
    c. Regresi
    d. Autoencoder

16. Convolution kernel bertugas untuk …
    a. Memperbesar ukuran gambar
    b. Mengekstrak fitur lokal dari gambar
    c. Membagi dataset
    d. Menormalkan neuron

17. Padding pada CNN digunakan untuk …
    a. Mengurangi overfitting
    b. Menjaga ukuran feature map
    c. Menambahkan neuron
    d. Menormalkan dataset

18. Stride menentukan …
    a. Jumlah layer
    b. Pergerakan kernel dalam convolusi
    c. Ukuran batch
    d. Ukuran input

19. Autoencoder digunakan untuk …
    a. Klasifikasi
    b. Dimensi reduksi / feature learning
    c. Analisis deret waktu
    d. Transfer learning

20. Fungsi tanh memiliki output range …
    a. 0–1
    b. -1–1
    c. -∞–∞
    d. 0–∞

21. Dropout biasanya diterapkan pada …
    a. Input layer saja
    b. Hidden layer
    c. Output layer saja
    d. Semua neuron sekaligus

22. Learning rate yang terlalu besar menyebabkan …
    a. Training lambat
    b. Model tidak konvergen
    c. Overfitting berkurang
    d. Data imbalance

23. Weight initialization penting untuk …
    a. Menentukan optimizer
    b. Memulai training agar konvergen lebih cepat
    c. Mengatur batch size
    d. Mengurangi neuron

24. Regularisasi L2 digunakan untuk …
    a. Mengurangi overfitting
    b. Mempercepat forward pass
    c. Menambah neuron
    d. Menormalkan input

25. Data augmentation sering digunakan untuk …
    a. Menambah ukuran dataset
    b. Mengurangi jumlah batch
    c. Menormalkan input
    d. Menambah neuron

26. Early stopping dilakukan untuk …
    a. Mempercepat training
    b. Mencegah overfitting
    c. Menambah layer
    d. Mengubah optimizer

27. CNN populer untuk …
    a. NLP
    b. Computer Vision
    c. Time-series forecasting
    d. Clustering

28. RNN cocok untuk data yang …
    a. Independent
    b. Sequential / time-series
    c. Image
    d. Sparse

29. Fungsi sigmoid cenderung menyebabkan …
    a. Vanishing gradient
    b. Overfitting
    c. Exploding gradient
    d. Normalisasi

30. Fungsi relu memiliki kelemahan …
    a. Vanishing gradient
    b. Dead neuron problem
    c. Tidak bisa nonlinear
    d. Membutuhkan LSTM

Bagian B: Isian Singkat (10 Soal)

31. Sebutkan tiga optimizer yang populer digunakan dalam deep learning!

32. Apa tujuan pooling layer dalam CNN?

33. Jelaskan perbedaan antara overfitting dan underfitting!

34. Apa itu backpropagation dan apa fungsinya?

35. Sebutkan dua contoh activation function selain ReLU!

36. Apa tujuan dropout dalam hidden layer?

37. Apa perbedaan antara batch gradient descent dan stochastic gradient descent?

38. Jelaskan konsep weight initialization dan mengapa penting!

39. Sebutkan dua kasus nyata penggunaan LSTM!

40. Apa itu transfer learning dan kapan biasanya digunakan?

Bagian C: Studi Kasus / Problem Solving (10 Soal)

41. Diberikan dataset gambar 5.000 foto kucing dan anjing. Buatlah arsitektur CNN sederhana untuk klasifikasi, sebutkan layer dan fungsinya.

42. Dataset teks berisi review produk. Jelaskan pendekatan deep learning yang tepat untuk menganalisis sentimen.

43. Model CNN mengalami overfitting pada dataset kecil. Sebutkan minimal tiga cara untuk mengatasinya.

44. Diberikan dataset time-series suhu harian. Jelaskan model deep learning yang cocok untuk prediksi suhu besok.

45. Jelaskan bagaimana data augmentation bisa membantu performa model CNN.

46. Bagaimana cara memilih loss function yang tepat untuk klasifikasi multi-class?

47. Sebutkan kelebihan dan kekurangan GAN dalam menghasilkan gambar sintetis.

48. Diberikan dataset citra medis yang sangat besar, jelaskan strategi menggunakan transfer learning untuk menghemat waktu training.

49. Model RNN sering mengalami vanishing gradient. Jelaskan bagaimana LSTM mengatasi masalah ini.

50. Anda diminta mendesain model untuk image captioning. Sebutkan komponen deep learning yang dibutuhkan dan alurnya secara singkat.

Berikut kunci jawaban dan jawaban singkat untuk 50 soal post-test deep learning:

Bagian A: Pilihan Ganda (30 Soal)

1. b – Memperkenalkan non-linearitas
2. a – Klasifikasi multi-kelas
3. c – Analisis gambar
4. b – Klasifikasi
5. b – Model terlalu kompleks dan performa buruk di data baru
6. b – Mengurangi overfitting
7. b – Mengoptimalkan bobot jaringan
8. b – RMSProp + momentum
9. b – Satu kali melewati seluruh dataset
10. b – Mempercepat konvergensi
11. a – Non-linear mapping 0–1
12. b – Analisis deret waktu atau sequence data
13. a – Generator dan Discriminator
14. b – Memanfaatkan model pretrained
15. a – Klasifikasi binary
16. b – Mengekstrak fitur lokal dari gambar
17. b – Menjaga ukuran feature map
18. b – Pergerakan kernel dalam convolusi
19. b – Dimensi reduksi / feature learning
20. b – -1–1
21. b – Hidden layer
22. b – Model tidak konvergen
23. b – Memulai training agar konvergen lebih cepat
24. a – Mengurangi overfitting
25. a – Menambah ukuran dataset
26. b – Mencegah overfitting
27. b – Computer Vision
28. b – Sequential / time-series
29. a – Vanishing gradient
30. b – Dead neuron problem

Bagian B: Isian Singkat (10 Soal)

31. Optimizer populer: SGD, Adam, RMSProp

32. Pooling layer: Mengurangi dimensi feature map, mengekstrak fitur dominan

33. Overfitting: model terlalu kompleks → performa buruk di data baru; Underfitting: model terlalu sederhana → performa buruk di data training

34. Backpropagation: algoritma untuk menghitung gradient dan memperbarui bobot jaringan

35. Contoh activation function selain ReLU: sigmoid, tanh, softmax

36. Dropout: mencegah overfitting dengan menonaktifkan neuron sementara

37. Batch GD: menggunakan seluruh dataset untuk update bobot; SGD: update bobot per data point

38. Weight initialization: menentukan bobot awal, penting untuk mencegah gradient explosion/vanishing

39. Contoh LSTM: prediksi saham, analisis teks, prediksi cuaca

40. Transfer learning: menggunakan model pretrained untuk dataset baru, menghemat waktu training

Bagian C: Studi Kasus / Problem Solving (10 Soal)

41. Arsitektur CNN sederhana: Input → Conv2D → ReLU → Pooling → Conv2D → ReLU → Pooling → Flatten → Dense → Softmax. Fungsi: ekstraksi fitur → klasifikasi.

42. Dataset teks: gunakan RNN/LSTM atau Transformer, preprocessing teks → embedding → sequence model → output sentimen.

43. Atasi overfitting: data augmentation, dropout, regularisasi, early stopping, transfer learning.

44. Dataset time-series: gunakan LSTM atau GRU, input sequence → hidden layers → output prediksi.

45. Data augmentation: menambah variasi data → model tidak terlalu overfit → generalisasi lebih baik.

46. Loss function multi-class: softmax cross-entropy, karena output kelas lebih dari dua.

47. GAN: kelebihan – menghasilkan data realistis; kekurangan – sulit training, mode collapse.

48. Transfer learning citra medis: gunakan model pretrained (misal ResNet), fine-tuning layer terakhir → hemat waktu training.

49. Vanishing gradient RNN: LSTM mengatasi dengan gate (input, forget, output) → mempertahankan gradient.

50. Image captioning: CNN untuk ekstraksi fitur gambar, RNN/LSTM untuk menghasilkan teks; alur: gambar → CNN → feature → LSTM → kata demi kata.

Rekomendasi untuk Anda
Ikuti kami di

Berita Terkini

© 2025 TRIBUNnews.com Network,a subsidiary of KG Media.
All Right Reserved