SlideShare a Scribd company logo
1 of 51
Download to read offline
Topik
• Arsitektur JST
• Fungsi aktivasi
• McCulloch-Pitts neuron
• Decision boundary
• Bias
Arsitektur JST
• JST umumnya divisualisasikan dalam bentuk
beberapa layer
• Secara umum, setiap layer bekerja dengan
cara yang sama
• Neuron di suatu layer tersambung dengan
neuron-neuron di layer sebelum dan
sesudahnya
Arsitektur JST
• JST dapat memiliki arsitektur single layer
atau multilayer
• Umumnya, input layer tidak dihitung
sebagai layer karena tidak melakukan
perhitungan
• Pemrosesan data dilakukan dari input layer
ke output layer
• Disebut dengan feedforward nets
Contoh Sederhana
𝑦𝑖𝑛 = 𝑥1𝑤1 + 𝑥2𝑤2 + 𝑥3𝑤3
𝑦𝑜𝑢𝑡 =
1
1 + 𝑒−𝑦𝑖𝑛
Sumber: Fausett (1994)
Fungsi
aktivasi
𝑦𝑖𝑛 𝑦𝑜𝑢𝑡
Penentuan Nilai Bobot
• 𝑦𝑜𝑢𝑡 kita sebut sebagai nilai aktivasi
• Penentuan nilai-nilai bobot pada suatu JST
dapat dilakukan secara supervised maupun
unsupervised
• Supervised: klasifikasi jenis kelamin (pria 1,
wanita 0)
• Unsupervised: mencari kesamaan pola pada
data (clustering)
Fungsi Aktivasi
• Berfungsi untuk menghitung output dari
sebuah neuron berdasarkan input yang
diterimanya
• Beberapa fungsi aktivasi:
1. Fungsi identitas:
𝑓(𝑥) = 𝑥
Fungsi Identitas
-3
-1
1
3
5
7
9
-3 -1 1 3 5 7 9
𝑦 = 𝑥
Fungsi Aktivasi
2. Fungsi step biner dengan nilai threshold 𝜃:
𝑓 𝑥 = ቊ
1 𝑖𝑓 𝑥 ≥ 𝜃
0 𝑖𝑓 𝑥 < 𝜃
• Jika nilai input suatu neuron lebih besar
atau sama dengan 𝜃, maka neuron tersebut
“aktif” (menghasilkan output 1)
• Sebaliknya: “nonaktif” (output 0)
Fungsi Step
0
1
-4 -2 0 2 4 6 8 10 12
Threshold (𝜃) = 3
Fungsi Aktivasi
3. Fungsi step bipolar:
𝑓 𝑥 = ቊ
1 𝑖𝑓 𝑥 ≥ 𝜃
−1 𝑖𝑓 𝑥 < 𝜃
Fungsi Aktivasi
4. Fungsi sigmoid biner/logistic sigmoid:
𝑓 𝑥 =
1
1 + 𝑒−𝑥
• Output: 0,0–1,0
Fungsi Sigmoid Biner
0
0,2
0,4
0,6
0,8
1
-8 -6 -4 -2 0 2 4 6 8
Fungsi Aktivasi
5. Sigmoid bipolar:
𝑓 𝑥 =
2
1 + 𝑒−𝑥
− 1
• Output: -1–1
Fungsi Sigmoid Bipolar
-1
-0,6
-0,2
0,2
0,6
1
-8 -6 -4 -2 0 2 4 6 8
McCulloch-Pitts Neuron
• Dirancang olehWarren McCulloch (1898–
1969) dan Walter Pitts (1923–1969)
• Diperkirakan merupakan arsitektur
jaringan saraf yang pertama kali dibuat
(1943)
• Walaupun sederhana, namun telah
memperkenalkan beberapa aspek penting
dari jaringan saraf
McCulloch-Pitts Neuron
• Menggunakan fungsi aktivasi biner (0/1)
• Setiap neuron memiliki suatu nilai
threshold (𝜃) yang ditentukan
𝑓 𝑥 = ቊ
1 𝑖𝑓 𝑥 ≥ 𝜃
0 𝑖𝑓 𝑥 < 𝜃
• Nilai-nilai bobot juga ditentukan
Logika AND
• Berapakah nilai threshold (𝜃) yang harus
digunakan untuk membentuk logika AND?
𝑓 𝑥 = ቊ
1 𝑖𝑓 𝑥 ≥ 𝜃
0 𝑖𝑓 𝑥 < 𝜃
𝒙𝟏 𝒙𝟐 𝒚
1 1 1
1 0 0
0 1 0
0 0 0
Kode
Sumber: Fausett (1994)
Implementasi
import numpy as np
# Fungsi step biner
def binstep(x, th=0):
return 1 if x >= th else 0
Implementasi
• Perkalian dan penjumlahan antara neuron
dan bobot adalah operasi dot product
• Dapat dilakukan menggunakan np.dot:
n = [1, 2]
w = [3, 4]
y = np.dot(n, w)
print(y) # 11
1
2
𝑦
3
4
Implementasi
# Logika AND dengan nilai bobot [1, 1]
def AND(x):
y_in = np.dot(x, [1, 1])
return binstep(y_in, 2)
print(AND([1, 1]))
Logika OR
• Berapakah nilai threshold (𝜃) yang harus
digunakan untuk membentuk logika OR?
𝑓 𝑥 = ቊ
1 𝑖𝑓 𝑥 ≥ 𝜃
0 𝑖𝑓 𝑥 < 𝜃
𝒙𝟏 𝒙𝟐 𝒚
1 1 1
1 0 1
0 1 1
0 0 0 Sumber: Fausett (1994)
Implementasi
# Logika OR dengan nilai bobot [2, 2]
def OR(x):
y_in = np.dot(x, [2, 2])
return binstep(y_in, 2)
print(OR([1, 1]))
Logika AND NOT
• Jika nilai threshold ditetapkan sebesar 2,
berapakah nilai 𝑤2 yang harus digunakan
untuk membentuk logika AND NOT?
𝑓 𝑥 = ቊ
1 𝑖𝑓 𝑥 ≥ 𝜃
0 𝑖𝑓 𝑥 < 𝜃
𝒙𝟏 𝒙𝟐 𝒚
1 1 0
1 0 1
0 1 0
0 0 0 Sumber: Fausett (1994)
Implementasi
# Logika AND NOT dengan nilai bobot [2, -1]
def ANDNOT(x):
y_in = np.dot(x, [2, -1])
return binstep(y_in, 2)
print(ANDNOT([1, 0]))
Logika XOR
• Dibentuk dari gabungan dua logika AND
NOT
𝒙𝟏 𝒙𝟐
𝒙𝟏 𝑨𝑵𝑫 𝑵𝑶𝑻 𝒙𝟐
(𝒚𝟏)
𝒙𝟐 𝑨𝑵𝑫 𝑵𝑶𝑻 𝒙𝟏
(𝒚𝟐)
𝒚𝟏 𝑶𝑹 𝒚𝟐
1 1 0 0 0
1 0 1 0 1
0 1 0 1 1
0 0 0 0 0
Logika XOR
• Threshold (𝜃) bernilai 2
Sumber: Fausett (1994)
Implementasi
# Logika XOR yang merupakan gabungan antara
# logika AND NOT dan OR
def XOR(x):
# x[::-1] membalik urutan array x
z = [ANDNOT(x), ANDNOT(x[::-1])]
return OR(z)
print(XOR([1, 1]))
Decision Boundary
• Logika AND dapat dipandang sebagai
sebuah permasalahan klasifikasi
• 𝑥1 dan 𝑥2 sebagai atribut
• 𝑦 sebagai kelas
𝒙𝟏 𝒙𝟐 𝒚
1 1 1
1 0 0
0 1 0
0 0 0
Decision Boundary
• 𝑛𝑒𝑡 = 𝑥1𝑤1 + 𝑥2𝑤2
• Jika 𝑛𝑒𝑡 ≥ 2, maka data tersebut masuk ke
kelas positif (+)
• Jika 𝑛𝑒𝑡 < 2, maka data tersebut masuk ke
kelas negatif (-) 𝒙𝟏 𝒙𝟐 𝒏𝒆𝒕 Kelas
1 1 2 +
1 0 1 -
0 1 1 -
0 0 0 -
Sumber: Fausett (1994)
Decision Boundary
• Nilai tengah 1,5 adalah nilai pemisah antara
kedua kelas tersebut
• 𝑛𝑒𝑡 = 𝑥1𝑤1 + 𝑥2𝑤2
• 1.5 = 𝑥1 + 𝑥2
• 𝑥2 = −𝑥1 + 1.5
• Garis pemisah itu disebut dengan decision
boundary
Decision Boundary
-0,5
0
0,5
1
1,5
-0,5 0 0,5 1 1,5
𝑥2 = −𝑥1 + 1.5
Decision Boundary
• Karena kedua kelas tersebut dapat
dipisahkan oleh sebuah garis lurus (linier),
maka kedua kelas itu disebut linearly
separable
Linearly separable vs. non-linearly separable
Linear decision boundaries
Bias
• Bias adalah bobot dari sebuah neuron yang
nilai aktivasinya selalu bernilai 1
• Nilai biasnya sendiri dapat berubah-ubah
Sumber: Fausett (1994)
Bias
• Jika
𝑛𝑒𝑡 = ෍
𝑖
𝑥𝑖𝑤𝑖
maka kemudian dapat diaplikasikan fungsi aktivasi
step:
𝑓 𝑛𝑒𝑡 = ቊ
1, 𝑖𝑓 𝑛𝑒𝑡 ≥ 𝜃
−1, 𝑖𝑓 𝑛𝑒𝑡 < 𝜃
• Decision boundary antara kedua kelas adalah:
𝑥1𝑤1 + 𝑥2𝑤2 = 𝜃
Bias
• Dengan bias, nilai 𝑛𝑒𝑡 dihitung sebagai:
𝑛𝑒𝑡 = 𝑏 + ෍
𝑖
𝑥𝑖𝑤𝑖
• Maka, fungsi aktivasinya menjadi:
𝑓 𝑛𝑒𝑡 = ቊ
1, 𝑖𝑓 𝑛𝑒𝑡 ≥ 0
−1, 𝑖𝑓 𝑛𝑒𝑡 < 0
• Decision boundary antara kedua kelas adalah:
𝑏 + 𝑥1𝑤1 + 𝑥2𝑤2 = 0
Bias
• Penggunaan bias dan nilai threshold nol
memberikan hasil yang sama dengan
kondisi jika bias tidak digunakan dan
threshold bernilai selain nol
• Proses training akan mengarahkan jaringan
untuk memberikan hasil yang benar
Logika AND Tanpa Bias
𝑥1
𝑥2
𝑦
1
1
𝒙𝟏 𝒙𝟐 𝒚
1 1 1
1 0 0
0 1 0
0 0 0
𝑓 𝑛𝑒𝑡 = ቊ
1, 𝑖𝑓 𝑛𝑒𝑡 ≥ 2
0, 𝑖𝑓 𝑛𝑒𝑡 < 2
Logika AND dengan Bias
(Hasil pelatihan dengan Hebb rule)
𝑥1
𝑥2
𝑏
𝑦
-2
2
2
𝒙𝟏 𝒙𝟐 𝒚
1 1 1
1 -1 -1
-1 1 -1
-1 -1 -1
𝑓 𝑛𝑒𝑡 = ቊ
1, 𝑖𝑓 𝑛𝑒𝑡 ≥ 0
−1, 𝑖𝑓 𝑛𝑒𝑡 < 0
Arsitektur JST dan Fungsi Aktivasi

More Related Content

Similar to Arsitektur JST dan Fungsi Aktivasi

Similar to Arsitektur JST dan Fungsi Aktivasi (16)

Jaringan Syaraf Tiruan (JST)
Jaringan Syaraf Tiruan (JST)Jaringan Syaraf Tiruan (JST)
Jaringan Syaraf Tiruan (JST)
 
11 jaringan-syaraf-tiruan
11 jaringan-syaraf-tiruan11 jaringan-syaraf-tiruan
11 jaringan-syaraf-tiruan
 
Jaringan saraf-tiruan
Jaringan saraf-tiruanJaringan saraf-tiruan
Jaringan saraf-tiruan
 
Kecerdasan Buatan Diskusi 5.docx
Kecerdasan Buatan Diskusi 5.docxKecerdasan Buatan Diskusi 5.docx
Kecerdasan Buatan Diskusi 5.docx
 
Buat persentasi
Buat persentasiBuat persentasi
Buat persentasi
 
Addtional Files for Implementing Neural Network from Scratch
Addtional Files for Implementing Neural Network from ScratchAddtional Files for Implementing Neural Network from Scratch
Addtional Files for Implementing Neural Network from Scratch
 
Jaringan syaraf tiruan
Jaringan syaraf tiruanJaringan syaraf tiruan
Jaringan syaraf tiruan
 
5_AI.pptx
5_AI.pptx5_AI.pptx
5_AI.pptx
 
JST.ppt
JST.pptJST.ppt
JST.ppt
 
Jaringan syaraf tiruan
Jaringan syaraf tiruanJaringan syaraf tiruan
Jaringan syaraf tiruan
 
Jaringan-Syaraf-Tiruan.ppt
Jaringan-Syaraf-Tiruan.pptJaringan-Syaraf-Tiruan.ppt
Jaringan-Syaraf-Tiruan.ppt
 
Machine Learning Diskusi 12.pdf
Machine Learning Diskusi 12.pdfMachine Learning Diskusi 12.pdf
Machine Learning Diskusi 12.pdf
 
Jaringan Kohonen (Unsupervised Learning)
Jaringan Kohonen (Unsupervised Learning)Jaringan Kohonen (Unsupervised Learning)
Jaringan Kohonen (Unsupervised Learning)
 
Minggu 6 - Recurrent Neural Network (Compressed).pdf
Minggu 6 - Recurrent Neural Network (Compressed).pdfMinggu 6 - Recurrent Neural Network (Compressed).pdf
Minggu 6 - Recurrent Neural Network (Compressed).pdf
 
Ppt neuralnet
Ppt neuralnetPpt neuralnet
Ppt neuralnet
 
Clustering
ClusteringClustering
Clustering
 

Arsitektur JST dan Fungsi Aktivasi

  • 1.
  • 2. Topik • Arsitektur JST • Fungsi aktivasi • McCulloch-Pitts neuron • Decision boundary • Bias
  • 3.
  • 4. Arsitektur JST • JST umumnya divisualisasikan dalam bentuk beberapa layer • Secara umum, setiap layer bekerja dengan cara yang sama • Neuron di suatu layer tersambung dengan neuron-neuron di layer sebelum dan sesudahnya
  • 5.
  • 6. Arsitektur JST • JST dapat memiliki arsitektur single layer atau multilayer • Umumnya, input layer tidak dihitung sebagai layer karena tidak melakukan perhitungan • Pemrosesan data dilakukan dari input layer ke output layer • Disebut dengan feedforward nets
  • 7. Contoh Sederhana 𝑦𝑖𝑛 = 𝑥1𝑤1 + 𝑥2𝑤2 + 𝑥3𝑤3 𝑦𝑜𝑢𝑡 = 1 1 + 𝑒−𝑦𝑖𝑛 Sumber: Fausett (1994)
  • 9. Penentuan Nilai Bobot • 𝑦𝑜𝑢𝑡 kita sebut sebagai nilai aktivasi • Penentuan nilai-nilai bobot pada suatu JST dapat dilakukan secara supervised maupun unsupervised • Supervised: klasifikasi jenis kelamin (pria 1, wanita 0) • Unsupervised: mencari kesamaan pola pada data (clustering)
  • 10.
  • 11. Fungsi Aktivasi • Berfungsi untuk menghitung output dari sebuah neuron berdasarkan input yang diterimanya • Beberapa fungsi aktivasi: 1. Fungsi identitas: 𝑓(𝑥) = 𝑥
  • 12. Fungsi Identitas -3 -1 1 3 5 7 9 -3 -1 1 3 5 7 9 𝑦 = 𝑥
  • 13. Fungsi Aktivasi 2. Fungsi step biner dengan nilai threshold 𝜃: 𝑓 𝑥 = ቊ 1 𝑖𝑓 𝑥 ≥ 𝜃 0 𝑖𝑓 𝑥 < 𝜃 • Jika nilai input suatu neuron lebih besar atau sama dengan 𝜃, maka neuron tersebut “aktif” (menghasilkan output 1) • Sebaliknya: “nonaktif” (output 0)
  • 14. Fungsi Step 0 1 -4 -2 0 2 4 6 8 10 12 Threshold (𝜃) = 3
  • 15. Fungsi Aktivasi 3. Fungsi step bipolar: 𝑓 𝑥 = ቊ 1 𝑖𝑓 𝑥 ≥ 𝜃 −1 𝑖𝑓 𝑥 < 𝜃
  • 16. Fungsi Aktivasi 4. Fungsi sigmoid biner/logistic sigmoid: 𝑓 𝑥 = 1 1 + 𝑒−𝑥 • Output: 0,0–1,0
  • 18. Fungsi Aktivasi 5. Sigmoid bipolar: 𝑓 𝑥 = 2 1 + 𝑒−𝑥 − 1 • Output: -1–1
  • 20.
  • 21.
  • 22. McCulloch-Pitts Neuron • Dirancang olehWarren McCulloch (1898– 1969) dan Walter Pitts (1923–1969) • Diperkirakan merupakan arsitektur jaringan saraf yang pertama kali dibuat (1943) • Walaupun sederhana, namun telah memperkenalkan beberapa aspek penting dari jaringan saraf
  • 23. McCulloch-Pitts Neuron • Menggunakan fungsi aktivasi biner (0/1) • Setiap neuron memiliki suatu nilai threshold (𝜃) yang ditentukan 𝑓 𝑥 = ቊ 1 𝑖𝑓 𝑥 ≥ 𝜃 0 𝑖𝑓 𝑥 < 𝜃 • Nilai-nilai bobot juga ditentukan
  • 24. Logika AND • Berapakah nilai threshold (𝜃) yang harus digunakan untuk membentuk logika AND? 𝑓 𝑥 = ቊ 1 𝑖𝑓 𝑥 ≥ 𝜃 0 𝑖𝑓 𝑥 < 𝜃 𝒙𝟏 𝒙𝟐 𝒚 1 1 1 1 0 0 0 1 0 0 0 0 Kode Sumber: Fausett (1994)
  • 25. Implementasi import numpy as np # Fungsi step biner def binstep(x, th=0): return 1 if x >= th else 0
  • 26. Implementasi • Perkalian dan penjumlahan antara neuron dan bobot adalah operasi dot product • Dapat dilakukan menggunakan np.dot: n = [1, 2] w = [3, 4] y = np.dot(n, w) print(y) # 11 1 2 𝑦 3 4
  • 27. Implementasi # Logika AND dengan nilai bobot [1, 1] def AND(x): y_in = np.dot(x, [1, 1]) return binstep(y_in, 2) print(AND([1, 1]))
  • 28. Logika OR • Berapakah nilai threshold (𝜃) yang harus digunakan untuk membentuk logika OR? 𝑓 𝑥 = ቊ 1 𝑖𝑓 𝑥 ≥ 𝜃 0 𝑖𝑓 𝑥 < 𝜃 𝒙𝟏 𝒙𝟐 𝒚 1 1 1 1 0 1 0 1 1 0 0 0 Sumber: Fausett (1994)
  • 29. Implementasi # Logika OR dengan nilai bobot [2, 2] def OR(x): y_in = np.dot(x, [2, 2]) return binstep(y_in, 2) print(OR([1, 1]))
  • 30. Logika AND NOT • Jika nilai threshold ditetapkan sebesar 2, berapakah nilai 𝑤2 yang harus digunakan untuk membentuk logika AND NOT? 𝑓 𝑥 = ቊ 1 𝑖𝑓 𝑥 ≥ 𝜃 0 𝑖𝑓 𝑥 < 𝜃 𝒙𝟏 𝒙𝟐 𝒚 1 1 0 1 0 1 0 1 0 0 0 0 Sumber: Fausett (1994)
  • 31. Implementasi # Logika AND NOT dengan nilai bobot [2, -1] def ANDNOT(x): y_in = np.dot(x, [2, -1]) return binstep(y_in, 2) print(ANDNOT([1, 0]))
  • 32. Logika XOR • Dibentuk dari gabungan dua logika AND NOT 𝒙𝟏 𝒙𝟐 𝒙𝟏 𝑨𝑵𝑫 𝑵𝑶𝑻 𝒙𝟐 (𝒚𝟏) 𝒙𝟐 𝑨𝑵𝑫 𝑵𝑶𝑻 𝒙𝟏 (𝒚𝟐) 𝒚𝟏 𝑶𝑹 𝒚𝟐 1 1 0 0 0 1 0 1 0 1 0 1 0 1 1 0 0 0 0 0
  • 33. Logika XOR • Threshold (𝜃) bernilai 2 Sumber: Fausett (1994)
  • 34. Implementasi # Logika XOR yang merupakan gabungan antara # logika AND NOT dan OR def XOR(x): # x[::-1] membalik urutan array x z = [ANDNOT(x), ANDNOT(x[::-1])] return OR(z) print(XOR([1, 1]))
  • 35.
  • 36. Decision Boundary • Logika AND dapat dipandang sebagai sebuah permasalahan klasifikasi • 𝑥1 dan 𝑥2 sebagai atribut • 𝑦 sebagai kelas 𝒙𝟏 𝒙𝟐 𝒚 1 1 1 1 0 0 0 1 0 0 0 0
  • 37. Decision Boundary • 𝑛𝑒𝑡 = 𝑥1𝑤1 + 𝑥2𝑤2 • Jika 𝑛𝑒𝑡 ≥ 2, maka data tersebut masuk ke kelas positif (+) • Jika 𝑛𝑒𝑡 < 2, maka data tersebut masuk ke kelas negatif (-) 𝒙𝟏 𝒙𝟐 𝒏𝒆𝒕 Kelas 1 1 2 + 1 0 1 - 0 1 1 - 0 0 0 - Sumber: Fausett (1994)
  • 38. Decision Boundary • Nilai tengah 1,5 adalah nilai pemisah antara kedua kelas tersebut • 𝑛𝑒𝑡 = 𝑥1𝑤1 + 𝑥2𝑤2 • 1.5 = 𝑥1 + 𝑥2 • 𝑥2 = −𝑥1 + 1.5 • Garis pemisah itu disebut dengan decision boundary
  • 39. Decision Boundary -0,5 0 0,5 1 1,5 -0,5 0 0,5 1 1,5 𝑥2 = −𝑥1 + 1.5
  • 40. Decision Boundary • Karena kedua kelas tersebut dapat dipisahkan oleh sebuah garis lurus (linier), maka kedua kelas itu disebut linearly separable
  • 41. Linearly separable vs. non-linearly separable
  • 43.
  • 44. Bias • Bias adalah bobot dari sebuah neuron yang nilai aktivasinya selalu bernilai 1 • Nilai biasnya sendiri dapat berubah-ubah
  • 46. Bias • Jika 𝑛𝑒𝑡 = ෍ 𝑖 𝑥𝑖𝑤𝑖 maka kemudian dapat diaplikasikan fungsi aktivasi step: 𝑓 𝑛𝑒𝑡 = ቊ 1, 𝑖𝑓 𝑛𝑒𝑡 ≥ 𝜃 −1, 𝑖𝑓 𝑛𝑒𝑡 < 𝜃 • Decision boundary antara kedua kelas adalah: 𝑥1𝑤1 + 𝑥2𝑤2 = 𝜃
  • 47. Bias • Dengan bias, nilai 𝑛𝑒𝑡 dihitung sebagai: 𝑛𝑒𝑡 = 𝑏 + ෍ 𝑖 𝑥𝑖𝑤𝑖 • Maka, fungsi aktivasinya menjadi: 𝑓 𝑛𝑒𝑡 = ቊ 1, 𝑖𝑓 𝑛𝑒𝑡 ≥ 0 −1, 𝑖𝑓 𝑛𝑒𝑡 < 0 • Decision boundary antara kedua kelas adalah: 𝑏 + 𝑥1𝑤1 + 𝑥2𝑤2 = 0
  • 48. Bias • Penggunaan bias dan nilai threshold nol memberikan hasil yang sama dengan kondisi jika bias tidak digunakan dan threshold bernilai selain nol • Proses training akan mengarahkan jaringan untuk memberikan hasil yang benar
  • 49. Logika AND Tanpa Bias 𝑥1 𝑥2 𝑦 1 1 𝒙𝟏 𝒙𝟐 𝒚 1 1 1 1 0 0 0 1 0 0 0 0 𝑓 𝑛𝑒𝑡 = ቊ 1, 𝑖𝑓 𝑛𝑒𝑡 ≥ 2 0, 𝑖𝑓 𝑛𝑒𝑡 < 2
  • 50. Logika AND dengan Bias (Hasil pelatihan dengan Hebb rule) 𝑥1 𝑥2 𝑏 𝑦 -2 2 2 𝒙𝟏 𝒙𝟐 𝒚 1 1 1 1 -1 -1 -1 1 -1 -1 -1 -1 𝑓 𝑛𝑒𝑡 = ቊ 1, 𝑖𝑓 𝑛𝑒𝑡 ≥ 0 −1, 𝑖𝑓 𝑛𝑒𝑡 < 0