도구와 프레임워크에 의한 인스턴스화: 기본 생성자를 통해 JSP, Servlet 등의 Java Beans 프레임워크에서 인스턴스를 생성하기 위해Serialization and Deserialization: 기본 생성자는 Java Beans 객체를 Serializatio
2021년 12월 8일에 쓴 "간편인증서 보안 문제"이미 2021년에 언급한 보안문제가이제야서 수면위에 올라왔다.뚫린곳은 도로교통공단뿐만이 아니다.분명 건강보험공단도 뚫렸다.아마도 건강보혐료 최대치를 내는 사람을 찾기 위한 작업이였으리 생각 된다.여기서 더 큰문제는 도
아이디어 경로: 고프로 착용하고 축구하는 유튜버고프로와의 좋은 차이시선 트렉킹을 저장 할 수 있음depth를 느낄 수 있음현장감이 더 생생함고프로와의 안좋은 차이공유 할 수 있는 플랫폼이 아직 없음같은 기기를 착용 해야 시청 할 수 있음주변 시야가 좁을 수 밖에 없다화
중에서 input_planes가 16,32,64 로 바뀌는 이유는...ResNet 아키텍처에서 평면(채널) 수의 변경은 사용되는 특정 ResNet 변형에 기반합니다. 일반적으로, 한 "레이어"에서 다음으로 넘어갈 때 평면 수가 증가합니다. 예를 들어, ResNet-34
코드 출처중여기서 shortcut은 그림에서identity connection을 의미한다.element wise addition을 하려면 차원의 동일해야 되니,을 넣는 것 이다.stride가 2이상일 경우는 크기가 축소 될 것 이고input(in_planes)과 ou
context를 더 많이 담기 위해.각 attention 마다 다른 context를 담을 수 있음.즉 더 많은 정보를 담기 위해.예) "I gave my dog Charlie some food"attention 1 = gave -> Iattention 2 = gave
Gradient Normalization(Norm):Gradient normalization rescales the gradients to have a fixed norm, such as unit norm or a desired norm. This can prevent
Observed Datay, x2, 43, 64, 8x = weightx can be a vectorTrained Weight = 2y = 2xwhenever there's a vector and y, you can use A.I. or in other words yo
과거 메타버스가 왜 중요하고 그리고 게임회사의 가치가 중요한 지 가리키는 글을 썻다.더 과거로 가보면 테슬라가 보는 더 먼 미래에 대해서 썼다. 그리고 인공지능을 왜 다시 배워야 하는 지도 썼다.또한, 글로는 쓰지 않았지만 한국은행에서 올해 모의 CBDC을 실행을 한다
task주어진 영어 문장을 한국어로 번역 하시요.inputthe cat didn't cross the street.답그 고양이는 길을 건너지 않았다.attention"the cat" = "고양이"와 연관성self-attention"the"와 "cat"의 연관성
트랜스포머를 적용 할 수 있는 분야는 쉽게 repeat 가능 한 분야 이다. 그러나 금융 분야는 그렇지 않다. 과거 데이터로 과거와 미래를 나눌 수는 있는데 미래를 그릴 수는 없다. 왜냐하면 미래가 과거 데이터에 비추어 볼 때 매우 어긋나는 일들이 많기 때문이다. 예를
나는 답을 봐야 빨리 이해 한다.그래서 어떻게 하면 transformer를 여러 분야에 적용 할 수 있고 쉽게 적용 가능 한지 알고 싶었다.운좋게도 그런 책을 찾았다.트랜스포머 with 파이토치예전에는 text의 감정을 분류 하려면 유/무료로 api를 써야 했다. 파인
MIT 101매우 high level로 설명해서 이해하는데 매우 쉬움트랜스포퍼에 대한 큰 픽쳐 만들어 줄 수 있다.Standford트랜스포퍼가 탄생한 배경에 대해 알려주고 시작하여, 왜 이렇게 발전 했지를 알려줌허민석 설명듣고 있으면 이해하는 듯 보이나, 실제로 알아들
2019년 때만 해도인공지능을 구현만 해도 취직이 되었고 사람들이 놀라워 했다.그러나, 현재는 아니다5년이라는 시간이 지났다.이제 모두가 안다.모델은 만든 사람들이 천재이지구현을 하는 사람은 아니라는 걸그래서 데이터가 중요한 것이지 모델링 자체는 필요 없다는 걸왜냐하면
LLM이 트레이닝 속도 생산성은 높아짐논문 같은 고급 텍스트 데이터의 생산량은 그대로OPEN AI가 시장 점유율은 압도적이지만기술적으로는 거의 모든 테크 기업의 LLM이내년부터 비슷해 질 것다른말로는 더이상 LLM 트레이닝을 위한 서버를 증산할 필요가 없다.반도체 생산
2000~2023달러 M2 4.5배(https://fred.stlouisfed.org/series/M2SLSPY 대략 4배2000~2023원화 M2 5.7배KOSPI 5배양도소득세 및 매도 수수료를 포함 하면 화폐가치 대비 수익률을 현저히 낮을 것 이다.
제가 코딩을 좋아 하는 것은,코딩을 하다 보면 일상 생활에서의 insight를 줍니다.가령 object 라는 개념을 설명하고 예제로 드리면,혼자서 하면 굳이 모듈라를 할 필요가 없다.그러나, 현업에서는 협업을 해야 합니다. 그래서 모듈화가 필요 합니다.object가 그
Data가 어떻게 취합 되었는지는 모르겠으나 2022년까지는 확실히 커지고 있었음예측 전망치는 좋음remote play와 다른 점은 기기를 보유 하고 있지 않아도 되는 점 그러나 기술 구현은 비슷하다.IMAGE ALT TEXT HEREIMAGE ALT TEXT HERE
구글에서 구글답지 않은 선택을 했다.바로 비직관적인 제스쳐 인식이다.유튜브에서 전체화면을 확대하려면 위로 향하게 해야 한다.반대로 닫을려고 하면 아래로 내려야 한다.언뜻보면 직관적이다.왜냐면 컴퓨터에서 그렇게 하니깐.창을 최소화 할 때 창은 올라가지 않고 내려가고창을