Pelajaran Sekolah
50 Soal dan Kunci Jawaban Post‑Test Pembelajaran Mendalam/ Deep Learning untuk Ujian dan Evaluasi
Berikut 50 Soal dan Kunci Jawaban Post‑Test Pembelajaran Mendalam (Deep Learning) untuk Ujian dan Evaluasi
34. Apa itu backpropagation dan apa fungsinya?
35. Sebutkan dua contoh activation function selain ReLU!
36. Apa tujuan dropout dalam hidden layer?
37. Apa perbedaan antara batch gradient descent dan stochastic gradient descent?
38. Jelaskan konsep weight initialization dan mengapa penting!
39. Sebutkan dua kasus nyata penggunaan LSTM!
40. Apa itu transfer learning dan kapan biasanya digunakan?
Bagian C: Studi Kasus / Problem Solving (10 Soal)
41. Diberikan dataset gambar 5.000 foto kucing dan anjing. Buatlah arsitektur CNN sederhana untuk klasifikasi, sebutkan layer dan fungsinya.
42. Dataset teks berisi review produk. Jelaskan pendekatan deep learning yang tepat untuk menganalisis sentimen.
43. Model CNN mengalami overfitting pada dataset kecil. Sebutkan minimal tiga cara untuk mengatasinya.
44. Diberikan dataset time-series suhu harian. Jelaskan model deep learning yang cocok untuk prediksi suhu besok.
45. Jelaskan bagaimana data augmentation bisa membantu performa model CNN.
46. Bagaimana cara memilih loss function yang tepat untuk klasifikasi multi-class?
47. Sebutkan kelebihan dan kekurangan GAN dalam menghasilkan gambar sintetis.
48. Diberikan dataset citra medis yang sangat besar, jelaskan strategi menggunakan transfer learning untuk menghemat waktu training.
49. Model RNN sering mengalami vanishing gradient. Jelaskan bagaimana LSTM mengatasi masalah ini.
50. Anda diminta mendesain model untuk image captioning. Sebutkan komponen deep learning yang dibutuhkan dan alurnya secara singkat.
Berikut kunci jawaban dan jawaban singkat untuk 50 soal post-test deep learning:
Bagian A: Pilihan Ganda (30 Soal)
1. b – Memperkenalkan non-linearitas
2. a – Klasifikasi multi-kelas
3. c – Analisis gambar
4. b – Klasifikasi
5. b – Model terlalu kompleks dan performa buruk di data baru
6. b – Mengurangi overfitting
7. b – Mengoptimalkan bobot jaringan
8. b – RMSProp + momentum
9. b – Satu kali melewati seluruh dataset
10. b – Mempercepat konvergensi
11. a – Non-linear mapping 0–1
12. b – Analisis deret waktu atau sequence data
13. a – Generator dan Discriminator
14. b – Memanfaatkan model pretrained
15. a – Klasifikasi binary
16. b – Mengekstrak fitur lokal dari gambar
17. b – Menjaga ukuran feature map
18. b – Pergerakan kernel dalam convolusi
19. b – Dimensi reduksi / feature learning
20. b – -1–1
21. b – Hidden layer
22. b – Model tidak konvergen
23. b – Memulai training agar konvergen lebih cepat
24. a – Mengurangi overfitting
25. a – Menambah ukuran dataset
26. b – Mencegah overfitting
27. b – Computer Vision
28. b – Sequential / time-series
29. a – Vanishing gradient
30. b – Dead neuron problem
Bagian B: Isian Singkat (10 Soal)
31. Optimizer populer: SGD, Adam, RMSProp
32. Pooling layer: Mengurangi dimensi feature map, mengekstrak fitur dominan
33. Overfitting: model terlalu kompleks → performa buruk di data baru; Underfitting: model terlalu sederhana → performa buruk di data training
34. Backpropagation: algoritma untuk menghitung gradient dan memperbarui bobot jaringan
35. Contoh activation function selain ReLU: sigmoid, tanh, softmax
36. Dropout: mencegah overfitting dengan menonaktifkan neuron sementara
37. Batch GD: menggunakan seluruh dataset untuk update bobot; SGD: update bobot per data point
38. Weight initialization: menentukan bobot awal, penting untuk mencegah gradient explosion/vanishing
39. Contoh LSTM: prediksi saham, analisis teks, prediksi cuaca
40. Transfer learning: menggunakan model pretrained untuk dataset baru, menghemat waktu training
Bagian C: Studi Kasus / Problem Solving (10 Soal)
41. Arsitektur CNN sederhana: Input → Conv2D → ReLU → Pooling → Conv2D → ReLU → Pooling → Flatten → Dense → Softmax. Fungsi: ekstraksi fitur → klasifikasi.
42. Dataset teks: gunakan RNN/LSTM atau Transformer, preprocessing teks → embedding → sequence model → output sentimen.
43. Atasi overfitting: data augmentation, dropout, regularisasi, early stopping, transfer learning.
44. Dataset time-series: gunakan LSTM atau GRU, input sequence → hidden layers → output prediksi.
45. Data augmentation: menambah variasi data → model tidak terlalu overfit → generalisasi lebih baik.
46. Loss function multi-class: softmax cross-entropy, karena output kelas lebih dari dua.
47. GAN: kelebihan – menghasilkan data realistis; kekurangan – sulit training, mode collapse.
48. Transfer learning citra medis: gunakan model pretrained (misal ResNet), fine-tuning layer terakhir → hemat waktu training.
49. Vanishing gradient RNN: LSTM mengatasi dengan gate (input, forget, output) → mempertahankan gradient.
50. Image captioning: CNN untuk ekstraksi fitur gambar, RNN/LSTM untuk menghasilkan teks; alur: gambar → CNN → feature → LSTM → kata demi kata.
Post‑Test Pembelajaran Mendalam
Soal Post‑Test Pembelajaran Mendalam
soal Post‑Test Pembelajaran Mendalam dan jawaban
soal Post‑Test Deep Learning
Tribunpekanbaru.com
Evergreen
Meaningful
kunci jawaban
| Kunci Jawaban Halaman 197 PAI Kelas 9 SMP/MTs Kurikulum Merdeka Aktivitas 1 Tanggapan Tentang Pantun |   | 
|---|
| Kunci Jawaban Halaman 186-187 PAI Kelas 9 SMP/MTs Kurikulum Merdeka Aktivitas 8 |   | 
|---|
| Kunci Jawaban Halaman 181 PAI Kelas 9 SMP/MTs Kurikulum Merdeka Aktivitas 5 Ikhtiar, doa dan Tawakal |   | 
|---|
| Kunci Jawaban Halaman 175 PAI Kelas 9 SMP/MTs Kurikulum Merdeka Aktivitas 3 Hubungan Qada dan Qadar! |   | 
|---|
| Kunci Jawaban Halaman 154 PAI Kelas 9 SMP/MTs Kurikulum Merdeka Arti Al-Baqarah 2:30 Al-Qaṣaṣ 28:77 |   | 
|---|

 
			
 
                 
						
					 
						
					 
						
					 
						
					 
						
					 
				
			 
											 
											 
											 
											 
											
Isi komentar sepenuhnya adalah tanggung jawab pengguna dan diatur dalam UU ITE.