AI로 무엇을 해야하고 무엇을 하면 안될까
2024. 1. 20. 13:59
인공지능
AI는 확률을 기반으로 해서 결과가 정확하지 않을 수 있다.또 결과가 랜덤씨드를 정해주지 않으면 초깃값에 따라 매번 달라진다그런 AI에게 중요한 일을 맡기면 안된다고 생각한다..중요한 일은 사람이 검토하고, 좀 덜 중요한 일을 맡기는게 좋지 않을까 최근의 흔한남매 유튜브 영상에서 흔한남매팀이 하는 서브채널인 흔한일상 채널이 AI에 의해 부적절한 콘텐츠로 분류가 되었다고 한다그래서 AI의 분류로 인해 채널의 수익창출이 정지되었다유튜버에게 채널 수익정지라는 것은 엄청난 중대한 사항이다마치 직장에서 일을 하는데 돈을 주지 않겠다는 것...수익 정지를 풀기 위해선 부적절한 콘텐츠가 아니라고 영상을 찍어서 보내는 수밖에 없다그런데 여기서도 영상을 다시 AI가 판단한다고 한다AI가 또 다시 적절하지 않다고 생각하..

Gradient Descent - Local minima를 방지하기 위한 방법
2024. 1. 12. 20:26
인공지능
출처: LG Aimers 강의 (https://www.lgaimers.ai/) gradient descent algorithm gradient: 기울기 / 함수를 미분하여 얻는 term으로 해당 함수의 변화하는 정도를 표현하는 값 error surface에서 최소인 포인트를 찾아가는 것이 목적이다. error surface에서 최소인 포인트에서는 gradient가 0이다. gradient descent에서는 gradient가 0인 지점까지 반복적으로 세타를 바꿔나가면서 탐색을 해야함, gradient(함수의 변화도)가 가장 큰 방향으로 이동한다 gradient descent algorithm은 경우에 따라 local optimum(지역 최소치)만을 달성하기 쉽다. Global optimum: 전체 err..

네이버 코칭스터디 - Data Science Projects 2024
2024. 1. 6. 12:36
인공지능
혼자 하는 것보단 어딘가에 소속되어서 같이 같은 목적을 향해서 하는 것이 더 큰 성과를 얻을 수 있다는 것을 몸소 느끼고 있다그래서 코칭스터디에 신청했다!1월 4일 목요일에 OT를 실시했는데 처음이라 반신반의하며 신청했지만 역시나 신청하길 잘했다운영진님이 너무 재밌게 OT를 이끌어가셨다생각보다 더 체계적인 느낌이였다 생각하는 것처럼 많은 것을 얻어갈 수 있을 것 같다 👍👍아직 본격적으로 시작하기도 전인데 코칭스터디가 매번 있는 것 같아 다음 기수도 하고 싶단 마음이 생겼다 ㅋㅋ 이번에 다루는 것들은 이미 알고 있는 기초적인 것이라 복습하는 느낌으로 임하려고 한다 역시 다같이 하는 스터디가 좋다혼자 하면 해이해지기가 쉽기 때문

LG Aimers 선정됐다~!
2023. 12. 31. 21:43
인공지능
LG Aimers 선정됐다사실 취업이 될줄 알고 일단 신청만 해두고 별 생각 안했었는데 취업시장이 얼어붙어서 취업을 아직도 못했다 ... 어차피 온라인 교육이라서 틈틈히 들으면서 취준을 계속 할까 한다 1월 한달간은 좀 공부를 빡세게 해볼까 한다😊🎶그래놓고서 또 내가 재밌게 하다가 힘들면 조금씩은 미루겠지만..ㅎㅎ 1월 계획 LG Aimers 강의 보기 (1월 한달간)https://www.lgaimers.ai/방송대 데이터 분석 경진대회 참여하기 (~1/16) - 기획, 수집, 가공, 분석, 결과물 작성https://stat.knou.ac.kr/bbs/stat/2120/684103/artclView.do?layout=unknownC, C++, C#, IoT 공부해보기AWS, Docker, No..

렐루 함수(ReLU), XAI
2023. 11. 23. 15:33
인공지능
신경망에서 활성화함수는 선형함수가 아닌 비선형함수를 써야한다고 배웠다. 렐루를 사용했을 때 음수값일 경우엔 0, 음수가 아니면 들어온 값이 출력으로 나온다.양수일때만 생각하면 비선형함수가 아니고 Linear와 똑같은데렐루가 왜 그게 동작이 잘되는 것일까 궁금해졌다.. 음수일땐 노드가 아예 0이 되버려서 전달을 못하게 되고, 양수일땐 선형함수인걸... 이 부분을 계에속 고민하다가 도저히 잘 모르겠어서 교수님께 여쭤봤다. 신경망에서 활성화함수를 비선형 함수로 쓰는 이유는 선형함수를 쓰면 아무리 연산을 해봤자선형함수이기 때문에 모양을 바꿔주기 위해서 비선형함수를 쓰는 것이고,그 부분에 대해서는 다들 동의를 한거라고 하셨다. 신경망에 쓰기 위해서 렐루 함수를 만든 게 아니고, 렐루 함수를 써봤더니 성능이 잘..

transformer는 정말 다용도다..
2023. 11. 22. 22:33
인공지능
https://www.boostcourse.org/ai340/lecture/1462959 컴퓨터 비전의 모든 것부스트코스 무료 강의www.boostcourse.org 오늘 학원에서 Faster R-CNN 부분까지 공부를 해서 복습할 겸 강의를 봤다. Object detection 강의를 보고 있는데 .. 강의 뒷부분에 여기에도 트랜스포머가 나온다정말 트랜스포머가 많이 쓰이는 것 같다NLP에서도 쓰이고, ViT로 쓰이는건 알고 있었는데Object detection에서도 트랜스포머 구조를 쓴다니..그걸 DETR이라고 한다 너무 놀라워 트랜스포머의 구조를 정확하게 설명할 수 있게끔 또 다시한번 공부해야겠다 교수님과 강사님이 말씀하시는 것처럼... 천번씩 보고 생각해서 이해했다고 하셨는데 그 말이 이..

Recall과 Precision의 차이점
2023. 11. 22. 00:15
인공지능
Recall : 실제 찾아내야 될 놈을 얼마나 찾아냈느냐 빨간불인 경우 Recall이 높아야함 Precision : 내가 찾아낸 놈 중에 얼마나 정확하게 찾아냈느냐 파란불인 경우 Precision이 높아야함 TP: 걸렸다고 예측 했는데 실제로 걸린 거 (내가 positive라고 예측했는데 positive가 true인 것) FN: 안걸렸다고 예측 했는데 실제로 걸린 거(내가 negative라고 예측했는데 negative가 false인 것 - negative가 틀렸으니까 실제는 positive) TP+FN : 실제로 걸린 것 Recall: 실제로 걸린 것 중에 걸렸다고 예측한 것 => 빨간불인 경우, 빨간불을 예측하지 못하면 멈추지 않기 때문에 큰 사고가 일어날 수 있다. 빨간불 중에 빨간불을 잘 예측하는 ..
모델 성능을 높이는 것은 넘 어렵다
2023. 10. 29. 21:38
인공지능
모델이 학습하는 동안에 블로그를 쓰러 왔다데이콘에서 짧은 기간동안 하는 대회를 참가했다가 주말 내내 많이 고민해보고 이것저것 고쳐봤다..열심히 해서 후회는 없다.. 내 실력이 부족한거니까😂😂 성능이 왜 잘 안나오는 것일지 온갖거 고민해보고 고쳐봤는데도 성능이 개선되지 않고 똑같거나 오히려 더 떨어진다정말 왜 그런걸까🥺 고민해본 것들은 이렇게 있다..1. 학습용 데이터에 너무 과적합 되어 있는 것 같다.=> 에포크마다 검증용 데이터의 loss 값을 출력해보자=> 학습용과 검증용의 데이터가 달라서 그런지 검증용의 loss는 줄지 않는 것 같다=> 이것을 어떻게 해결하면 좋을까? 2. pre-trained된 모델의 학습 데이터가 문제인 것 같다.=> 사용한 PLM 을 다른 모델로 바꿔서 파인튜닝해보자..
읽고 싶은 논문 리스트
2023. 9. 24. 22:36
인공지능
제목 그대로 읽고 싶은 논문들을 적어둔 글입니다..계속 추가하고 수정할 예정 ~! 자연어 관련Attention Is All You NeedWord2vec 및 fastText 임베딩 모델의 성능 비교Convolutional Sequence to Sequence LearningNeural Machine Translation by Jointly Learning to Align and TranslateNeural Machine Translation of Rare Words with Subword Units Byte Pair Encoding 관련 - https://arxiv.org/abs/1508.07909 의료 관련Review of Statistical Methods for Evaluating the P..