Pemko Pekanbaru
Super Hub Pemko Pekanbaru

Pelajaran Sekolah

50 Soal dan Kunci Jawaban Post‑Test Pembelajaran Mendalam/ Deep Learning untuk Ujian dan Evaluasi

Berikut 50 Soal dan Kunci Jawaban Post‑Test Pembelajaran Mendalam (Deep Learning) untuk Ujian dan Evaluasi

Tribunpekanbaru.com
Ilustrasi - 50 Soal dan Kunci Jawaban Post‑Test Pembelajaran Mendalam/ Deep Learning untuk Ujian dan Evaluasi 

34. Apa itu backpropagation dan apa fungsinya?

35. Sebutkan dua contoh activation function selain ReLU!

36. Apa tujuan dropout dalam hidden layer?

37. Apa perbedaan antara batch gradient descent dan stochastic gradient descent?

38. Jelaskan konsep weight initialization dan mengapa penting!

39. Sebutkan dua kasus nyata penggunaan LSTM!

40. Apa itu transfer learning dan kapan biasanya digunakan?

Bagian C: Studi Kasus / Problem Solving (10 Soal)

41. Diberikan dataset gambar 5.000 foto kucing dan anjing. Buatlah arsitektur CNN sederhana untuk klasifikasi, sebutkan layer dan fungsinya.

42. Dataset teks berisi review produk. Jelaskan pendekatan deep learning yang tepat untuk menganalisis sentimen.

43. Model CNN mengalami overfitting pada dataset kecil. Sebutkan minimal tiga cara untuk mengatasinya.

44. Diberikan dataset time-series suhu harian. Jelaskan model deep learning yang cocok untuk prediksi suhu besok.

45. Jelaskan bagaimana data augmentation bisa membantu performa model CNN.

46. Bagaimana cara memilih loss function yang tepat untuk klasifikasi multi-class?

47. Sebutkan kelebihan dan kekurangan GAN dalam menghasilkan gambar sintetis.

48. Diberikan dataset citra medis yang sangat besar, jelaskan strategi menggunakan transfer learning untuk menghemat waktu training.

49. Model RNN sering mengalami vanishing gradient. Jelaskan bagaimana LSTM mengatasi masalah ini.

50. Anda diminta mendesain model untuk image captioning. Sebutkan komponen deep learning yang dibutuhkan dan alurnya secara singkat.

Berikut kunci jawaban dan jawaban singkat untuk 50 soal post-test deep learning:

Bagian A: Pilihan Ganda (30 Soal)

1. b – Memperkenalkan non-linearitas
2. a – Klasifikasi multi-kelas
3. c – Analisis gambar
4. b – Klasifikasi
5. b – Model terlalu kompleks dan performa buruk di data baru
6. b – Mengurangi overfitting
7. b – Mengoptimalkan bobot jaringan
8. b – RMSProp + momentum
9. b – Satu kali melewati seluruh dataset
10. b – Mempercepat konvergensi
11. a – Non-linear mapping 0–1
12. b – Analisis deret waktu atau sequence data
13. a – Generator dan Discriminator
14. b – Memanfaatkan model pretrained
15. a – Klasifikasi binary
16. b – Mengekstrak fitur lokal dari gambar
17. b – Menjaga ukuran feature map
18. b – Pergerakan kernel dalam convolusi
19. b – Dimensi reduksi / feature learning
20. b – -1–1
21. b – Hidden layer
22. b – Model tidak konvergen
23. b – Memulai training agar konvergen lebih cepat
24. a – Mengurangi overfitting
25. a – Menambah ukuran dataset
26. b – Mencegah overfitting
27. b – Computer Vision
28. b – Sequential / time-series
29. a – Vanishing gradient
30. b – Dead neuron problem

Bagian B: Isian Singkat (10 Soal)

31. Optimizer populer: SGD, Adam, RMSProp

32. Pooling layer: Mengurangi dimensi feature map, mengekstrak fitur dominan

33. Overfitting: model terlalu kompleks → performa buruk di data baru; Underfitting: model terlalu sederhana → performa buruk di data training

34. Backpropagation: algoritma untuk menghitung gradient dan memperbarui bobot jaringan

35. Contoh activation function selain ReLU: sigmoid, tanh, softmax

36. Dropout: mencegah overfitting dengan menonaktifkan neuron sementara

37. Batch GD: menggunakan seluruh dataset untuk update bobot; SGD: update bobot per data point

38. Weight initialization: menentukan bobot awal, penting untuk mencegah gradient explosion/vanishing

39. Contoh LSTM: prediksi saham, analisis teks, prediksi cuaca

40. Transfer learning: menggunakan model pretrained untuk dataset baru, menghemat waktu training

Bagian C: Studi Kasus / Problem Solving (10 Soal)

41. Arsitektur CNN sederhana: Input → Conv2D → ReLU → Pooling → Conv2D → ReLU → Pooling → Flatten → Dense → Softmax. Fungsi: ekstraksi fitur → klasifikasi.

42. Dataset teks: gunakan RNN/LSTM atau Transformer, preprocessing teks → embedding → sequence model → output sentimen.

43. Atasi overfitting: data augmentation, dropout, regularisasi, early stopping, transfer learning.

44. Dataset time-series: gunakan LSTM atau GRU, input sequence → hidden layers → output prediksi.

45. Data augmentation: menambah variasi data → model tidak terlalu overfit → generalisasi lebih baik.

46. Loss function multi-class: softmax cross-entropy, karena output kelas lebih dari dua.

47. GAN: kelebihan – menghasilkan data realistis; kekurangan – sulit training, mode collapse.

48. Transfer learning citra medis: gunakan model pretrained (misal ResNet), fine-tuning layer terakhir → hemat waktu training.

49. Vanishing gradient RNN: LSTM mengatasi dengan gate (input, forget, output) → mempertahankan gradient.

50. Image captioning: CNN untuk ekstraksi fitur gambar, RNN/LSTM untuk menghasilkan teks; alur: gambar → CNN → feature → LSTM → kata demi kata.

Halaman 4/4
Rekomendasi untuk Anda
Ikuti kami di

Berita Terkini

© 2025 TRIBUNnews.com Network,a subsidiary of KG Media.
All Right Reserved