-
[비공개] 코딩어학원 CH. LC w/ Py - Neural Networks 1..
[4:33 - 6:56] 근데 이 퀀텀 컴퓨팅, 퀀텀 프로그래밍이 어떻게 유용하게 쓰일 수 있다는 걸까? 어떻게 써먹지? 뭐 직업이라도 갖다 줄 수 있다는 걸까? 여기에 답한다는 건 잘못된 태도가 아닐까? 우린 퀀텀 컴퓨팅이 당신에게 무얼 가져다 줄 지를 보지말고, 내가 그걸 어떻게 써먹을 지를 보아야하지 않을까? 내직업에서 그걸 어떻게 써먹을 지를 찾아봐야지 않을까? 이 놈을 갖고선 과연 내가 무얼 해낼 수 있을까에 촛점을 맞추는 것이 올바른 태도일테다. 그건 지난 세월 50년대, 60년대, 좀 논쟁은 있겠지만 70년대, 80년대에 지금 널리 활용되고 있는 classical computers로 무엇을 할 수 있었던지를 돌아보면 답을 유추해볼 수 있지 않.......추천 -
[비공개] 코딩어학원 CH. LC w/ Py - Neural Networks 1..
[4:33 - 6:56] 근데 이 퀀텀 컴퓨팅, 퀀텀 프로그래밍이 어떻게 유용하게 쓰일 수 있다는 걸까? 어떻게 써먹지? 뭐 직업이라도 갖다 줄 수 있다는 걸까? 여기에 답한다는 건 잘못된 태도가 아닐까? 우린 퀀텀 컴퓨팅이 당신에게 무얼 가져다 줄 지를 보지말고, 내가 그걸 어떻게 써먹을 지를 보아야하지 않을까? 내직업에서 그걸 어떻게 써먹을 지를 찾아봐야지 않을까? 이 놈을 갖고선 과연 내가 무얼 해낼 수 있을까에 촛점을 맞추는 것이 올바른 태도일테다. 그건 지난 세월 50년대, 60년대, 좀 논쟁은 있겠지만 70년대, 80년대에 지금 널리 활용되고 있는 classical computers로 무엇을 할 수 있었던지를 돌아보면 답을 유추해볼 수 있지 않.......추천 -
[비공개] 코딩어학원 CH. LC w/ Py - Neural Networks 1..
8:38 - 11:22 발췌 부분을 직역해봅니다. ReLU function의 무엇이 그리 좋은가? Linear랑 아주 가깝다 그러나 제로에서 깎는 기능이 있어서, 이게 Sigmoid와 같이 파워풀해지는 거다. 아주 빠르게 작동되게 한다. 쿨. 근데 왜 작동된다는 걸까? ReLU function을 하나의 뉴런으로부터 시작해 들여다 보자. 우린 무엇이 input으로 들어오던 그 weight를 증가시켜서 이 뉴런의 모든 센스들을 강하게 할 수 있다. 우린 이 function을 수평으로 움직여서 bias를 조정해 이 뉴런이 activate 해야하는 지점을 상쇄할 수 있다. 만일 우리가 weight를 무효화해야 한다면, ReLU function이 미끄러지듯 떨어지면서는 대신에 어느 지점에서 input이 activate .......추천 -
[비공개] 코딩어학원 CH. LC w/ Py - Neural Networks 1..
8:38 - 11:22 발췌 부분을 직역해봅니다. ReLU function의 무엇이 그리 좋은가? Linear랑 아주 가깝다 그러나 제로에서 깎는 기능이 있어서, 이게 Sigmoid와 같이 파워풀해지는 거다. 아주 빠르게 작동되게 한다. 쿨. 근데 왜 작동된다는 걸까? ReLU function을 하나의 뉴런으로부터 시작해 들여다 보자. 우린 무엇이 input으로 들어오던 그 weight를 증가시켜서 이 뉴런의 모든 센스들을 강하게 할 수 있다. 우린 이 function을 수평으로 움직여서 bias를 조정해 이 뉴런이 activate 해야하는 지점을 상쇄할 수 있다. 만일 우리가 weight를 무효화해야 한다면, ReLU function이 미끄러지듯 떨어지면서는 대신에 어느 지점에서 input이 activate .......추천 -
[비공개] 코딩어학원 CH. LC w/ Py - Neural Networks 1..
8:38 - 11:22 발췌 부분을 직역해봅니다. ReLU function의 무엇이 그리 좋은가? Linear랑 아주 가깝다 그러나 제로에서 깎는 기능이 있어서, 이게 Sigmoid와 같이 파워풀해지는 거다. 아주 빠르게 작동되게 한다. 쿨. 근데 왜 작동된다는 걸까? ReLU function을 하나의 뉴런으로부터 시작해 들여다 보자. 우린 무엇이 input으로 들어오던 그 weight를 증가시켜서 이 뉴런의 모든 센스들을 강하게 할 수 있다. 우린 이 function을 수평으로 움직여서 bias를 조정해 이 뉴런이 activate 해야하는 지점을 상쇄할 수 있다. 만일 우리가 weight를 무효화해야 한다면, ReLU function이 미끄러지듯 떨어지면서는 대신에 어느 지점에서 input이 activate .......추천 -
[비공개] 코딩어학원 CH. LC w/ Py - Neural Networks 1..
Batch는 왜 하죠? for generalization purpose! 변동성이 많은 적은 샘플로는 우린 정확한 prediction이 어렵다. 어느 정도의 샘플 사이즈가 필요하고, 일반적으로 batch size = 32 일 때 model이 generalized가 잘 되어 나온다 한다. 암튼 우린 현실에선 batch size를 고려한 input 즉, matrix 형태로 설계하고선 작업한다. 이 땐 input[ ] x weight[ ] 를 했을 때 weight[ ] 에다 transpose를 해줘야 matrix product 계산식이 워킹한다. 안그럼 계속 shape error가 난다. output = np.dot(inputs, np.array(weights).T) + biases 앞에서 weight, input 순이었던 것이 다시 바뀐 것에 주목. 실습에선 layer를 하나 더 만들어내고선 그.......추천 -
[비공개] 코딩어학원 CH. LC w/ Py - Neural Networks 1..
Batch는 왜 하죠? for generalization purpose! 변동성이 많은 적은 샘플로는 우린 정확한 prediction이 어렵다. 어느 정도의 샘플 사이즈가 필요하고, 일반적으로 batch size = 32 일 때 model이 generalized가 잘 되어 나온다 한다. 암튼 우린 현실에선 batch size를 고려한 input 즉, matrix 형태로 설계하고선 작업한다. 이 땐 input[ ] x weight[ ] 를 했을 때 weight[ ] 에다 transpose를 해줘야 matrix product 계산식이 워킹한다. 안그럼 계속 shape error가 난다. output = np.dot(inputs, np.array(weights).T) + biases 앞에서 weight, input 순이었던 것이 다시 바뀐 것에 주목. 실습에선 layer를 하나 더 만들어내고선 그.......추천 -
[비공개] 코딩어학원 CH. LC w/ Py - Neural Networks 1..
Batch는 왜 하죠? for generalization purpose! 변동성이 많은 적은 샘플로는 우린 정확한 prediction이 어렵다. 어느 정도의 샘플 사이즈가 필요하고, 일반적으로 batch size = 32 일 때 model이 generalized가 잘 되어 나온다 한다. 암튼 우린 현실에선 batch size를 고려한 input 즉, matrix 형태로 설계하고선 작업한다. 이 땐 input[ ] x weight[ ] 를 했을 때 weight[ ] 에다 transpose를 해줘야 matrix product 계산식이 워킹한다. 안그럼 계속 shape error가 난다. output = np.dot(inputs, np.array(weights).T) + biases 앞에서 weight, input 순이었던 것이 다시 바뀐 것에 주목. 실습에선 layer를 하나 더 만들어내고선 그.......추천 -
[비공개] 코딩어학원 CH. LC w/ Py - Neural Networks 1..
딥러닝에선 neuron을 중심으로 계산을 하기 때문에 이런 input이 vector고 weight가 matrix인 경우, weight, input 순으로 놓고선 dot product를 해야 한다. 그래야 앞 layer에서 넘어오는 각 input 별로 각기 다른 vector, matrix로 구성된 weight의 반영이 가능해진다. 이걸 계산 가능케 해주는 기능이 numpy엔 있는데 그걸 Dot Product라 한다. output = np.dot(weights, inputs) + biases 이렇게 하면 각 input vector 별로 weight matrix가 반영 되어 수식 계산이 나온다. 이를 거꾸로 inputs, weights로 했을 땐 shape error를 얻게 된다. 하지만 그 이유가 명확하게 딱 떨어지지가 않아요ㅠ deep learning에선 이런 경우가 종종 나온.......추천 -
[비공개] 코딩어학원 CH. LC w/ Py - Neural Networks 1..
딥러닝에선 neuron을 중심으로 계산을 하기 때문에 이런 input이 vector고 weight가 matrix인 경우, weight, input 순으로 놓고선 dot product를 해야 한다. 그래야 앞 layer에서 넘어오는 각 input 별로 각기 다른 vector, matrix로 구성된 weight의 반영이 가능해진다. 이걸 계산 가능케 해주는 기능이 numpy엔 있는데 그걸 Dot Product라 한다. output = np.dot(weights, inputs) + biases 이렇게 하면 각 input vector 별로 weight matrix가 반영 되어 수식 계산이 나온다. 이를 거꾸로 inputs, weights로 했을 땐 shape error를 얻게 된다. 하지만 그 이유가 명확하게 딱 떨어지지가 않아요ㅠ deep learning에선 이런 경우가 종종 나온.......추천