๐ง Problems์ธ๊ณผ์์ฌ ๋จธ์ฑ์ด๋ ์๊ธ์ค์ ์จ ํ์์ ์๊ธ๋๋ฅผ ๊ธฐ์ค์ผ๋ก ์ง๋ฃ ์์๋ฅผ ์ ํ๋ ค๊ณ ํฉ๋๋ค. ์ ์ ๋ฐฐ์ด emergency๊ฐ ๋งค๊ฐ๋ณ์๋ก ์ฃผ์ด์ง ๋ ์๊ธ๋๊ฐ ๋์ ์์๋๋ก ์ง๋ฃ ์์๋ฅผ ์ ํ ๋ฐฐ์ด์ return ํ๋๋ก solution ํจ์๋ฅผ ์์ฑํด์ฃผ์ธ์. ๐ก Solutionsfunction solution(emergency) { const descending = [...emergency].sort((a, b) => b - a); return emergency.map(value => descending.indexOf(value) + 1);}์ฝ๋ ์ค๋ช
sort( ) ๋ฉ์๋๋ฅผ ํ์ฉํด ๋ฐฐ์ด ์์๋ฅผ ๋ด๋ฆผ์ฐจ์์ผ๋ก ์ ๋ ฌํด์ค๋๋ค. ์ด๋, ๋ฐฐ์ด์ ๋ฐ๋ก sort( )๋ฅผ ์ ์ฉํ๋ฉด ์..
๐ Jero's Wiki
๐ง Problems์ต๋น๊ฐ์ ์ฃผ์ด์ง ๊ฐ ์ค์์ ๊ฐ์ฅ ์์ฃผ ๋์ค๋ ๊ฐ์ ์๋ฏธํฉ๋๋ค. ์ ์ ๋ฐฐ์ด array๊ฐ ๋งค๊ฐ๋ณ์๋ก ์ฃผ์ด์ง ๋, ์ต๋น๊ฐ์ return ํ๋๋ก solution ํจ์๋ฅผ ์์ฑํด๋ณด์ธ์. ์ต๋น๊ฐ์ด ์ฌ๋ฌ ๊ฐ๋ฉด -1์ return ํฉ๋๋ค. ๐ก Solutionsconst solution = (array) => { const frequency = {}; array.forEach(num => { frequency[num] = (frequency[num] || 0) + 1; }); const maxFreq = Math.max(...Object.values(frequency)); const modes = Object.keys(frequency).f..
๐ง Problems์ฒซ ๋ฒ์งธ ๋ถ์์ ๋ถ์์ ๋ถ๋ชจ๋ฅผ ๋ปํ๋ numer1, denom1, ๋ ๋ฒ์งธ ๋ถ์์ ๋ถ์์ ๋ถ๋ชจ๋ฅผ ๋ปํ๋ numer2, denom2๊ฐ ๋งค๊ฐ๋ณ์๋ก ์ฃผ์ด์ง๋๋ค. ๋ ๋ถ์๋ฅผ ๋ํ ๊ฐ์ ๊ธฐ์ฝ ๋ถ์๋ก ๋ํ๋์ ๋ ๋ถ์์ ๋ถ๋ชจ๋ฅผ ์์๋๋ก ๋ด์ ๋ฐฐ์ด์ return ํ๋๋ก solution ํจ์๋ฅผ ์์ฑํด๋ณด์ธ์. ๐ก Solutionsconst gcd = (num1, num2) => num2 === 0 ? num1 : gcd(num2, num1 % num2);const solution = (numer1, denom1, numer2, denom2) => { const numer = numer1 * denom2 + numer2 * denom1; const denom =..

Weight Initialization๋ฅ๋ฌ๋ ๋ชจ๋ธ์ ํ์ตํ๋ค๋ ๊ฑด loss ๊ฐ์ด ์ต์๊ฐ ๋๋ parameter๋ฅผ ์ฐพ๋ ๊ฒ์ด๋ค. ์ต์ ์ parameter๋ฅผ ์ฐพ๊ธฐ ์ํด ๊ณ ๋ คํด์ผ ํ ์ ๋ค์ด ์ฌ๋ฟ ์์ง๋ง, ๊ทธ ์ค parameter์ ์ด๊ธฐ๊ฐ ์ค์ ์ ์ค์ํ ์ํฅ์ ๋ฏธ์น๋ค. ์ด ๊ธ์์ parameter ์ฆ, weight์ ์ด๊ธฐ๊ฐ์ ์ค์ ํ๋ ์ฌ๋ฌ ๊ฐ์ง ๋ฐฉ๋ฒ์ ๋ํด ๋ค๋ค๋ณด๋ ค ํ๋ค. Zero Initialization (or Same Initialization)weight ํฌ๊ธฐ๋ฅผ ํฌ๊ฒ ๋ถ์ฌํ ์๋ก ๋ชจ๋ธ์ ํน์ ๋ฐ์ดํฐ์๋ง ์ ๋ง๋ overfitting ๋ฌธ์ ๊ฐ ๋ฐ์ํ๊ธฐ ์ฝ๋ค. ๊ทธ๋ ๊ธฐ ๋๋ฌธ์ weight์ 0 ํน์ ๊ต์ฅํ ์์ ๊ฐ์ผ๋ก ๋ถ์ฌํด ํ์ต์ ์งํ์์ผ๋ณด์. $h_1 = h_2 = h_3 = \mathbf{W}(i_..

Regularization ๋ฅ๋ฌ๋ ๋ชจ๋ธ์ ํ์ตํ๋ ๊ณผ์ ์์ ํด๋น ๋ชจ๋ธ์ด ํ์ต ๋ฐ์ดํฐ์๋ง ์ต์ ํ๋๋ฉด ์ด๋จ๊น? ์๋ง ์๋ก์ด ๋ฐ์ดํฐ๊ฐ ์
๋ ฅ๋๋ฉด ๋ชจ๋ธ์ ์ ๋๋ก ๋ ์์ธก๊ฐ์ ์ถ๋ ฅํ์ง ๋ชปํ ๊ฒ์ด๋ค. ์ด๋ฐ ๋ฌธ์ ๋ฅผ Overfitting(๊ณผ์ ํฉ)์ด๋ผ ํ๋ค. ์ด๋ฐ Overfitting์ ํด๊ฒฐํ๊ธฐ ์ํด์ ํ์ต ๋ฐ์ดํฐ์ ์์ ๋๋ฆฌ๊ฑฐ๋, Regularization์ ์ฌ์ฉํด ๋ชจ๋ธ์ weight๋ฅผ ๊ท์ ํ๊ฑฐ๋, ๋ชจ๋ธ ํ์ต์ ๋๊น์ง ํ์ง ์๊ณ ์ค๊ฐ์ ๋ฉ์ถ๋ ๋ฐฉ๋ฒ(Early-Stopping) ๋ฑ์ ์ฌ์ฉํ ์ ์๋ค. ์์ ๋งํ๋ฏ์ด, Regularization์ Overfitting์ ๋ง๊ธฐ ์ํด weight(๊ฐ์ค์น)์ ๊ท์ ๋ฅผ ๊ฑฐ๋ ๊ฒ์ด๋ค.๋ชจ๋ธ์ด Overfitting ๋์๋ค๋ ๊ฑด ๋ฐ์ดํฐ ํ๋ ํ๋์ ๋ฏผ๊ฐํ๊ฒ ๋ฐ์ํ์ฌ ์ผ๋ฐ์ ์ธ ํจํด์ด ์๋ ๋ชจ..

LikelihoodLikelihood๋ฅผ ํ๊ตญ์ด๋ก ๋ฒ์ญํ๋ฉด '(์ด๋ค ์ผ์ด ์์) ๊ฐ๋ฅ์ฑ' ์ด๋ค. ๊ทธ๋ ๋ค๋ฉด ํต๊ณ์์ Likelihood๋ ์ด๋ค ๊ฐ๋ฅ์ฑ์ผ๊น? ๋ฐ๋ก, ๋ฐ์ดํฐ X={x1,x2,x3,x4,x5} ๊ฐ ํ๋ฅ ๋ถํฌ P ์์ ๋์์ ๊ฐ๋ฅ์ฑ ์ด๋ค. Probability vs. Likelihoodํต๊ณ์์ '๊ฐ๋ฅ์ฑ'์ด๋ผ ํ๋ Probability(ํ๋ฅ )๊ฐ ์๊ฐ๋๋ค. Probability์ Likelihood๋ ๋ ๋ค '๋ฌด์ธ๊ฐ ์ผ์ด๋ ๊ฐ๋ฅ์ฑ'์ ๋ปํ๋ค.๋์ , Probability๋ ์ด๋ค ์ฌ๊ฑด์ด ์ผ์ด๋ ๊ฐ๋ฅ์ฑ์ ๋งํ๊ณ Likelihood๋ ์ด๋ค ์ฌ๊ฑด์ด ์ด๋์์ ์ผ์ด๋ ๊ฐ๋ฅ์ฑ์ ๋งํ๋ค. ๋๊ธ์ด 6๊ฐ์ธ ์ฃผ์ฌ์๋ฅผ ๋์ก์ ๋ ์ซ์ 1 ์ด๋ 2๊ฐ ๋..

Backpropagation (์ญ์ ํ)์ต์ ์ parameter ๊ฐ์ ์ฐพ๊ธฐ ์ํด cost์ ๋ํ ์
๋ ฅ์ธต์ ๊ธฐ์ธ๊ธฐ๋ฅผ ๊ณ์ฐํ๋ ๊ฒ์ถ๋ ฅ์ธต์ ๊ธฐ์ธ๊ธฐ๋ถํฐ ๊ณ์ฐํ์ฌ ์ญ์ผ๋ก ์ ํํ๊ธฐ ๋๋ฌธ์ Backpropagation;์ญ์ ํ ๋ผ๊ณ ํจChain Rule (ํฉ์ฑํจ์์ ๋ฏธ๋ถ๋ฒ) ์ฌ์ฉ Backpropagation in a Single Layer 1. forward pass โ weighted sum, activation function(sigmoid)2. cost function โ MSE3. backpropagationโ Chain RuleโCโwi : 3๊ฐ์ ํจ์๋ก ์ด๋ฃจ์ด์ง ํฉ์ฑํจ์ํด๋น ํจ์์ ๊ธฐ์ธ๊ธฐ๋ฅผ ๊ตฌํ๊ธฐ ์ํด ํฉ์ฑํจ์์ ๋ฏธ๋ถ๋ฒ์ธ Chain Rule ์ ์ฉ์ ์์ ์ด๋ฃจ๊ณ ..

Gradient Descent (๊ฒฝ์ฌ ํ๊ฐ๋ฒ)loss function(์์คํจ์) ๊ฐ์ด ์ต์๊ฐ ๋๋ ๋ฐฉํฅ์ผ๋ก parameter ๊ฐ์ update ํ๋ ๊ฒ์ต์๊ฐ ๋๋ ๋ฐฉํฅ = Gradient ๋ฐ๋ ๋ฐฉํฅ์ฌ์ด ๊ตฌํ์ฑ ๋ฐ ๋์ ํ์ฅ์ฑ, ๊ฑฐ์ ๋ชจ๋ ์ต์ ํ ๋ฌธ์ ์ ์ ์ฉ ๊ฐ๋ฅํจ starting point = ฮธ0 โ randomly pick !ฮธ0 ์์ negative gradient ๋ฐฉํฅ์ผ๋ก ์ด๋ โ โโC(ฮธ0)$\theta = (W_1, W_2), \ \nabla C(\theta^0)=\begin{bmatrix} \frac{\partial C(\theta^0)}{\partial W_1} \\ \frac{\partial C(\theta^0)}{\partial ..