๐ง Problems์ธ๊ณผ์์ฌ ๋จธ์ฑ์ด๋ ์๊ธ์ค์ ์จ ํ์์ ์๊ธ๋๋ฅผ ๊ธฐ์ค์ผ๋ก ์ง๋ฃ ์์๋ฅผ ์ ํ๋ ค๊ณ ํฉ๋๋ค. ์ ์ ๋ฐฐ์ด ``emergency``๊ฐ ๋งค๊ฐ๋ณ์๋ก ์ฃผ์ด์ง ๋ ์๊ธ๋๊ฐ ๋์ ์์๋๋ก ์ง๋ฃ ์์๋ฅผ ์ ํ ๋ฐฐ์ด์ return ํ๋๋ก solution ํจ์๋ฅผ ์์ฑํด์ฃผ์ธ์. ๐ก Solutionsfunction solution(emergency) { const descending = [...emergency].sort((a, b) => b - a); return emergency.map(value => descending.indexOf(value) + 1);}์ฝ๋ ์ค๋ช
``sort( )`` ๋ฉ์๋๋ฅผ ํ์ฉํด ๋ฐฐ์ด ์์๋ฅผ ๋ด๋ฆผ์ฐจ์์ผ๋ก ์ ๋ ฌํด์ค๋๋ค. ์ด๋, ๋ฐฐ์ด์ ๋ฐ๋ก ``sort( )``๋ฅผ ์ ์ฉํ๋ฉด ์..
๐ Jero's Wiki
๐ง Problems์ต๋น๊ฐ์ ์ฃผ์ด์ง ๊ฐ ์ค์์ ๊ฐ์ฅ ์์ฃผ ๋์ค๋ ๊ฐ์ ์๋ฏธํฉ๋๋ค. ์ ์ ๋ฐฐ์ด ``array``๊ฐ ๋งค๊ฐ๋ณ์๋ก ์ฃผ์ด์ง ๋, ์ต๋น๊ฐ์ return ํ๋๋ก solution ํจ์๋ฅผ ์์ฑํด๋ณด์ธ์. ์ต๋น๊ฐ์ด ์ฌ๋ฌ ๊ฐ๋ฉด -1์ return ํฉ๋๋ค. ๐ก Solutionsconst solution = (array) => { const frequency = {}; array.forEach(num => { frequency[num] = (frequency[num] || 0) + 1; }); const maxFreq = Math.max(...Object.values(frequency)); const modes = Object.keys(frequency).f..
๐ง Problems์ฒซ ๋ฒ์งธ ๋ถ์์ ๋ถ์์ ๋ถ๋ชจ๋ฅผ ๋ปํ๋ ``numer1``, ``denom1``, ๋ ๋ฒ์งธ ๋ถ์์ ๋ถ์์ ๋ถ๋ชจ๋ฅผ ๋ปํ๋ ``numer2``, ``denom2``๊ฐ ๋งค๊ฐ๋ณ์๋ก ์ฃผ์ด์ง๋๋ค. ๋ ๋ถ์๋ฅผ ๋ํ ๊ฐ์ ๊ธฐ์ฝ ๋ถ์๋ก ๋ํ๋์ ๋ ๋ถ์์ ๋ถ๋ชจ๋ฅผ ์์๋๋ก ๋ด์ ๋ฐฐ์ด์ return ํ๋๋ก solution ํจ์๋ฅผ ์์ฑํด๋ณด์ธ์. ๐ก Solutionsconst gcd = (num1, num2) => num2 === 0 ? num1 : gcd(num2, num1 % num2);const solution = (numer1, denom1, numer2, denom2) => { const numer = numer1 * denom2 + numer2 * denom1; const denom =..

Weight Initialization๋ฅ๋ฌ๋ ๋ชจ๋ธ์ ํ์ตํ๋ค๋ ๊ฑด loss ๊ฐ์ด ์ต์๊ฐ ๋๋ parameter๋ฅผ ์ฐพ๋ ๊ฒ์ด๋ค. ์ต์ ์ parameter๋ฅผ ์ฐพ๊ธฐ ์ํด ๊ณ ๋ คํด์ผ ํ ์ ๋ค์ด ์ฌ๋ฟ ์์ง๋ง, ๊ทธ ์ค parameter์ ์ด๊ธฐ๊ฐ ์ค์ ์ ์ค์ํ ์ํฅ์ ๋ฏธ์น๋ค. ์ด ๊ธ์์ parameter ์ฆ, weight์ ์ด๊ธฐ๊ฐ์ ์ค์ ํ๋ ์ฌ๋ฌ ๊ฐ์ง ๋ฐฉ๋ฒ์ ๋ํด ๋ค๋ค๋ณด๋ ค ํ๋ค. Zero Initialization (or Same Initialization)weight ํฌ๊ธฐ๋ฅผ ํฌ๊ฒ ๋ถ์ฌํ ์๋ก ๋ชจ๋ธ์ ํน์ ๋ฐ์ดํฐ์๋ง ์ ๋ง๋ overfitting ๋ฌธ์ ๊ฐ ๋ฐ์ํ๊ธฐ ์ฝ๋ค. ๊ทธ๋ ๊ธฐ ๋๋ฌธ์ weight์ 0 ํน์ ๊ต์ฅํ ์์ ๊ฐ์ผ๋ก ๋ถ์ฌํด ํ์ต์ ์งํ์์ผ๋ณด์. $h_1 = h_2 = h_3 = \mathbf{W}(i_..

Regularization ๋ฅ๋ฌ๋ ๋ชจ๋ธ์ ํ์ตํ๋ ๊ณผ์ ์์ ํด๋น ๋ชจ๋ธ์ด ํ์ต ๋ฐ์ดํฐ์๋ง ์ต์ ํ๋๋ฉด ์ด๋จ๊น? ์๋ง ์๋ก์ด ๋ฐ์ดํฐ๊ฐ ์
๋ ฅ๋๋ฉด ๋ชจ๋ธ์ ์ ๋๋ก ๋ ์์ธก๊ฐ์ ์ถ๋ ฅํ์ง ๋ชปํ ๊ฒ์ด๋ค. ์ด๋ฐ ๋ฌธ์ ๋ฅผ Overfitting(๊ณผ์ ํฉ)์ด๋ผ ํ๋ค. ์ด๋ฐ Overfitting์ ํด๊ฒฐํ๊ธฐ ์ํด์ ํ์ต ๋ฐ์ดํฐ์ ์์ ๋๋ฆฌ๊ฑฐ๋, Regularization์ ์ฌ์ฉํด ๋ชจ๋ธ์ weight๋ฅผ ๊ท์ ํ๊ฑฐ๋, ๋ชจ๋ธ ํ์ต์ ๋๊น์ง ํ์ง ์๊ณ ์ค๊ฐ์ ๋ฉ์ถ๋ ๋ฐฉ๋ฒ(Early-Stopping) ๋ฑ์ ์ฌ์ฉํ ์ ์๋ค. ์์ ๋งํ๋ฏ์ด, Regularization์ Overfitting์ ๋ง๊ธฐ ์ํด weight(๊ฐ์ค์น)์ ๊ท์ ๋ฅผ ๊ฑฐ๋ ๊ฒ์ด๋ค.๋ชจ๋ธ์ด Overfitting ๋์๋ค๋ ๊ฑด ๋ฐ์ดํฐ ํ๋ ํ๋์ ๋ฏผ๊ฐํ๊ฒ ๋ฐ์ํ์ฌ ์ผ๋ฐ์ ์ธ ํจํด์ด ์๋ ๋ชจ..

LikelihoodLikelihood๋ฅผ ํ๊ตญ์ด๋ก ๋ฒ์ญํ๋ฉด '(์ด๋ค ์ผ์ด ์์) ๊ฐ๋ฅ์ฑ' ์ด๋ค. ๊ทธ๋ ๋ค๋ฉด ํต๊ณ์์ Likelihood๋ ์ด๋ค ๊ฐ๋ฅ์ฑ์ผ๊น? ๋ฐ๋ก, ๋ฐ์ดํฐ $\boldsymbol{X=\{x_1, x_2, x_3, x_4, x_5\}}$ ๊ฐ ํ๋ฅ ๋ถํฌ $\boldsymbol{P}$ ์์ ๋์์ ๊ฐ๋ฅ์ฑ ์ด๋ค. Probability vs. Likelihoodํต๊ณ์์ '๊ฐ๋ฅ์ฑ'์ด๋ผ ํ๋ Probability(ํ๋ฅ )๊ฐ ์๊ฐ๋๋ค. Probability์ Likelihood๋ ๋ ๋ค '๋ฌด์ธ๊ฐ ์ผ์ด๋ ๊ฐ๋ฅ์ฑ'์ ๋ปํ๋ค.๋์ , Probability๋ ์ด๋ค ์ฌ๊ฑด์ด ์ผ์ด๋ ๊ฐ๋ฅ์ฑ์ ๋งํ๊ณ Likelihood๋ ์ด๋ค ์ฌ๊ฑด์ด ์ด๋์์ ์ผ์ด๋ ๊ฐ๋ฅ์ฑ์ ๋งํ๋ค. ๋๊ธ์ด 6๊ฐ์ธ ์ฃผ์ฌ์๋ฅผ ๋์ก์ ๋ ์ซ์ 1 ์ด๋ 2๊ฐ ๋..

Backpropagation (์ญ์ ํ)์ต์ ์ parameter ๊ฐ์ ์ฐพ๊ธฐ ์ํด cost์ ๋ํ ์
๋ ฅ์ธต์ ๊ธฐ์ธ๊ธฐ๋ฅผ ๊ณ์ฐํ๋ ๊ฒ์ถ๋ ฅ์ธต์ ๊ธฐ์ธ๊ธฐ๋ถํฐ ๊ณ์ฐํ์ฌ ์ญ์ผ๋ก ์ ํํ๊ธฐ ๋๋ฌธ์ Backpropagation;์ญ์ ํ ๋ผ๊ณ ํจChain Rule (ํฉ์ฑํจ์์ ๋ฏธ๋ถ๋ฒ) ์ฌ์ฉ Backpropagation in a Single Layer 1. forward pass → weighted sum, activation function(sigmoid)2. cost function → MSE3. backpropagation→ Chain Rule$\frac{\partial C}{\partial w_i}$ : 3๊ฐ์ ํจ์๋ก ์ด๋ฃจ์ด์ง ํฉ์ฑํจ์ํด๋น ํจ์์ ๊ธฐ์ธ๊ธฐ๋ฅผ ๊ตฌํ๊ธฐ ์ํด ํฉ์ฑํจ์์ ๋ฏธ๋ถ๋ฒ์ธ Chain Rule ์ ์ฉ์ ์์ ์ด๋ฃจ๊ณ ..

Gradient Descent (๊ฒฝ์ฌ ํ๊ฐ๋ฒ)loss function(์์คํจ์) ๊ฐ์ด ์ต์๊ฐ ๋๋ ๋ฐฉํฅ์ผ๋ก parameter ๊ฐ์ update ํ๋ ๊ฒ์ต์๊ฐ ๋๋ ๋ฐฉํฅ = Gradient ๋ฐ๋ ๋ฐฉํฅ์ฌ์ด ๊ตฌํ์ฑ ๋ฐ ๋์ ํ์ฅ์ฑ, ๊ฑฐ์ ๋ชจ๋ ์ต์ ํ ๋ฌธ์ ์ ์ ์ฉ ๊ฐ๋ฅํจ starting point = $\theta^0$ → randomly pick !$\theta^0$ ์์ negative gradient ๋ฐฉํฅ์ผ๋ก ์ด๋ → $-\nabla C(\theta^0)$$\theta = (W_1, W_2), \ \nabla C(\theta^0)=\begin{bmatrix} \frac{\partial C(\theta^0)}{\partial W_1} \\ \frac{\partial C(\theta^0)}{\partial ..