일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | ||||||
2 | 3 | 4 | 5 | 6 | 7 | 8 |
9 | 10 | 11 | 12 | 13 | 14 | 15 |
16 | 17 | 18 | 19 | 20 | 21 | 22 |
23 | 24 | 25 | 26 | 27 | 28 |
- conda base 활성화
- window netstat time wait 제거
- time wait port kill
- 려려
- 오블완
- conda base 기본 설정
- conda 기초 설정
- conda 가상환경 설정 오류
- 3000 port kill
- 티스토리챌린지
- 실행중인 포트 죽이기
- Today
- Total
모도리는 공부중
[딥러닝] 공부 시작 2021.06.25~ 본문
공부중인 내용 정리
용어 설명
- IoU (Intersection over Union) : object detector의 정확도를 측정하는데 이용되는 평가 지표
- IoU = Area of Overlap / Area of Union
- Area of Overlap : predicted bounding box와 ground-truth bounding box가 겹치는 부분
- Area of Union : predicted bounding box와 ground-truth bounding box를 둘러싸는 영역
- IoU가 높을수록 predicted bounding box와 ground-truth bounding box가 거의 포개지는 모양을 나타내며, model이 bounding box를 정확하게 예측한 것이라는 뜻이 된다.
- object detection : 객체 검출. 객체 탐지.
- ground-truth bounding boxes (실제 상황 경계 상자) : testing set에서 object위치를 labeling한 것으로 학습할 데이터의 원본 혹은 실제 값을 표현할 때 사용.
- predicted bounding boxes (예측된 경계 상자) : model이 출력한 object 위치 예측값
- Precision (정밀도) : 모델이 True라고 예측한 결과들 중에서 정답도 True인 결과의 비율
- precision = TP / (TP + FP) = TP / All Detections
- 옳은 검출과 틀린 검출 중에서 옳은 검출의 비율
- Recall (재현율, 검출율) : 실제 정답이 True인 결과 중에서 모델이 True라고 예측한 결과의 비율
- recall = TP / (TP + FN)
- 옳은 검출과 부정 오류 중에서 옳은 검출의 비율
- TP (True Positive) : 옳은 검출.
- FP (False Positive) : 틀린 검출. 거짓 양성. 긍정 오류. Type Ⅰ Error.
- TN (True Negative) : 검출되면 안될 것이 검출되지 않음.
- FN (False Negative) : 검출되어야할 것이 검출되지 않음. 부정 오류. Type Ⅱ Error.
실제 상황 (Ground Truth) | 예측 결과 (Predict Result) | |
Positive | Negative | |
Positive | TP (True Positive) 옳은 검출 |
FN (False Negative) 검출되어야할 것이 검출되지 않음 - Type Ⅰ Error - |
Negative | FP (False Positive) 틀린 검출 - Type Ⅱ Error - |
TN (True Negative) 검출되면 안될 것이 검출되지 않음 |
conda env list
java -V
위의 내용을 공부하며 참고했거나 참고중인 사이트들은 다음과 같습니다.
https://deep-learning-study.tistory.com/
딥러닝 공부방
Computer Vision을 공부하고 있으며, 딥러닝 공부 과정을 기록합니다.
deep-learning-study.tistory.com
늦깎이 공대생의 인공지능 연구실
인공지능 관련 정보들에 대한 최신 경향들을 분석하고 연구하는 블로그
eair.tistory.com
- 개별로 검색해서 공부한 사이트들
물체 검출 알고리즘 성능 평가방법 AP(Average Precision)의 이해
물체 검출(object detection) 알고리즘의 성능은 precision-recall 곡선과 average precision(AP)로 평가하는 것이 대세다. 이에 대해서 이해하려고 한참을 구글링했지만 초보자가 이해하기에 적당한 문서는 찾
bskyvision.com
https://deep-learning-study.tistory.com/407
[Object Detection] mAP(mean Average Precision)을 이해하고 파이토치로 구현하기
안녕하세요 mAP(mean Average Precision)는 Faster R-CNN, SSD와 같은 object detector의 정확도를 측정하는 유명한 평가지표 입니다. 이번 포스팅에서는 mAP가 무엇인지 알아보고 파이토치로 구현해보도록 하.
deep-learning-study.tistory.com
mAP(Mean Average Precision) 정리
☞ 문서의 내용은 가장 하단 참고문헌 및 사이트를 참고하여 필자가 보기 쉽도록 정리한 내용입니다. ☞ 틀린 내용 및 저작권 관련 문의가 있는 경우 문의하시면 수정 및 삭제 조치하겠습
ctkim.tistory.com
[용어정리]Ground-truth
Ground-truth는 기상학에서 유래된 용어로 어느한 장소에서 수집된 정보를 의미합니다. Ground-truth는 보통 '지상 실측 정보'로 해석되며 인공위성과 같이 지구에서 멀리 떨어져서 지구를 관찰하였
eair.tistory.com
https://johngrib.github.io/wiki/two-type-error/
false positive와 false negative
johngrib.github.io
'내 지식 정리 > PYTHON' 카테고리의 다른 글
[PowerShell] (base) 기본 실행 설정 - PowerShell 실행 정책 바꾸기 (5) | 2021.07.13 |
---|---|
[conda사용법] Anaconda 환경변수(path) 설정 및 conda 명령어 (1) | 2021.07.08 |
[PYTHON] Retinanet 사용을 위한 Yolo label txt to xml, xml to csv (0) | 2021.04.08 |
[PYTHON] retinanet 학습 중에 만난 오류들 (0) | 2021.04.07 |
[PYTHON] CMD 버전 FFMPEG 동영상 이미지 추출 (0) | 2021.04.01 |