본문 바로가기

전체 글125

[백준 25304번] 영수증 (python) [문제] [풀이] price = int(input()) number = int(input()) result = 0 for i in range(0, number): A, B = map(int, input().split()) result += A*B if result == price: print("Yes") else: print("No") int(input())을 사용하여 입력받은 값을 각각 변수 price, number에 저장한다. map(int, input().split())를 사용하여 입력받은 값을 공백을 기준으로 분리하여 변수 A, B에 차례대로 저장한다. 해당 과정을 입력받은 number만큼 반복한다. result에 변수 A와 B의 곱을 누적하여 더해준다. 반복문이 끝난 후 result의 값이 pr.. 2023. 8. 20.
[백준 8393번] 합 (python) [문제] [풀이] num = int(input()) result = 0 for i in range(1, num+1): result += i print(result) int(input())을 사용하여 입력받은 값을 변수 num에 저장한다. num이 주어졌을 때, 1부터 num까지의 합을 출력하므로 range의 범위를 1부터 num+1까지로 지정해준다. 2023. 8. 20.
[백준 10950번] A+B - 3 (python) [문제] [풀이] case = int(input()) for i in range(0, case): A, B = map(int, input().split()) print(A+B) int(input())을 사용하여 입력받은 값을 변수 case에 저장한다. map(int, input().split())를 사용하여 입력받은 값을 공백을 기준으로 분리하여 변수 A, B에 차례대로 저장한다. 해당 과정을 입력받은 case만큼 반복한다. 2023. 8. 20.
엑셀로 해보는 통계적 추론 [데이터 불러오기] 실습에 사용할 데이터 셋은 1993년 미국의 한 대학에서 공기를 채운 축구공과 헬륨을 채운 측구공을 찼을 때의 거리를 비교하는 실험을 수행한 결과다. 실험은 39회 반복되었으며, 각 시도마다 키커가 공기 및 헬륨을 넣은 공을 교대로 차서 거리를 측정했다. fba.txt 파일을 복사해서 엑셀에 붙여넣는다. 다음과 같이 엑셀에 데이터가 정리된다. 위 데이터의 Trial은 시도 횟수, Air은 공기가 담긴 공의 비행 거리, Helium은 헬륨이 담긴 공의 비행 거리를 나타낸다. [탐색적 데이터 분석] 본격적으로 통계적 추론에 나서기 이전에 데이터를 살펴보는 탐색적 분석을 수행해보자. 우선 각 시도에 대한 거리의 분포를 살펴볼 필요가 있다. 표와 추세선이 포함된 차트를 그리기 위한 실습 과정.. 2023. 8. 20.
Batch Normalization [Batch Normalization] 데이터의 distribution이 처음엔 적절히 분포되어 있었지만, 여러 layer들을 거치면서 점점 변형이 된다. 이런 현상을 Internal Covariate Shift라고 한다. 즉, Internal Covariate Shift를 막기 위해서 Batch Normalization이 필요하다. Iayer에 input을 들어오는 데이터의 distribution을 계속 Normalization 시켜서 데이터의 distribution이 항상 일정하게 유지되도록 한다. x’ 값에 학습이 되는 파라미터를 적용한 다음에 Iayer의 새로운 input 값으로 추가한다. [code] Create Network 이전에 Relu 함수에서 사용한 code와 거의 일치한다. Relu .. 2023. 8. 20.
Dropout [Dropout] Dropout이란, Under-fitting 되거나 Over-fitting이 되지 않도록 하는 regularization을 말한다. 학습할 땐 일부의 node만을 사용하고 test할 때는 node를 모두 사용하는 방식으로 regularization 할 수 있다. 사용할 일부의 node는 random하게 선정한다. [code] Create Network 이전에 Relu 함수에서 사용한 code와 거의 일치한다. Relu 함수에서 사용한 code와 다른 점은 network를 구성할 때 dropout() 함수도 추가하여 model을 구성한다는 것이다. rate는 몇 %의 node를 끌 것인지를 나타낸다. [code] Define loss loss 함수들을 정의할 때 training 옵션 값이.. 2023. 8. 20.