# AI

2-5. Convex Optimization
Advanced Mathematics for AI (Week 2) #ConvexFunction #LinearProgramming

인공지능(AI) 업계 동향_3월4주차
어도비,차세대 생성형 AI 만든다엔씨소프트, AI·비주얼 기술 집약 디지털 휴먼 공개리액션하는 가상 인간…딥브레인AI, 3D B2B 출시구글, 대화형 인공지능 ‘바드’ 공개…챗GPT에 도전장더 강해진 MS 빙, 그림 그려주는 AI까지 붙였다'한글'에서 챗GPT 쓴다…'

2-3. Stochastic Gradient Descent
Advanced Mathematics for AI (Week 2) #GD #SGD #BatchGradientDescent

2-2. Optimization using GD
Advanced Mathematics for AI (Week 2) #Optimization #GradientDescent #경사하강법

카카오 koGPT 제가 써봤는데,,, (chatGPT에 맞설 수 있을까)
요즘 chatGPT로 세상이 변하는 속도가 더 빨라진 거 같다. 대답을 너무 잘해줘서 변호사 시험도 통과하고 대학 과제도 대신 써주고 인생의 지혜도 제시해 준다. 우리는 성인인 지금 ai가 실생활에 스며든 삶을 천천히 맞이할 텐데 현재 어린이들은 ai가 익숙해져서 우리
나만봄 - KNN이 뭐야
3월 초에 나온 뉴스이지만,Meta에서 GPT3 보다 성능이 좋다고 알려진 LLAMA를 발표했다.Dalai(https://cocktailpeanut.github.io/dalai/AI 발전 속도가 무시무시한데,그만큼 우위를 차자하기 위한 싸움 구경도 재밌다.Q.

네이버 부스트캠프 5기 16일차
시퀀스 모델인 LSTM으로 Mnist를 분류 해보자우선 LSTM의 인풋은 총 3개이다 cell state와 h-1 state 이때 배치별로 처음 데이터가 들어올경우 t-1의 cell state와 h-1 state가 없음으로 단순히 torch.zeros를 통해 만들어주고
[논문리뷰] End-to-End Object Detection with Transformers
Facebook AI | ECCV 2020 > DETR (DEtection TRansformer) > - Object detection as a direct set prediction problem > - Set-based global loss, bipartite m
Machine Learning (ML) - 2. Terms and Library
In machine learning, a model is a mathematical representation of a system that makes predictions or decision.It can be described of as a set of rules

네이버 부스트캠프 5기 15일차
위와 같은 데이터셋으로 0~9까지의 글씨 사진과 라벨로 0~9까지의 라벨이 그려져 있음위와 같은 모델을 구성할 경우 mnist의 이미지 shape (28,28,1)이 들어올때 이를 view함수로 먼저 (-1,28\*28)로 변환 시켜주고Linear층을 통하여 선형결합을

[논문 읽기] GloVe: Global Vectors for Word Representation
오늘은 단어 임베딩의 방법 중 하나인 GloVe에 대해 알아보고자 한다. GloVe는 2014년 스탠포드 대학에서 발표된 단어 임베딩 알고리즘으로, 당시 단어 유추, 유사도 테스트 등에서 SOTA모델을 달성했다.언어를 의미적 벡터 공간에 모델링할 때, 우리는 단어 각각
[Python] 체스 AI 만들기 0. 프로젝트 소개
프로젝트 소개 강화학습을 이용하여 체스 AI를 만들어 보려고 한다. 우선 AI를 학습시키기 위해서는 체스 판과 규칙들을 구현한 환경이 필요하다. openAI의 gym을 기반으로 한 패키지를 이용하면 이는 쉽게 해결이 되지만, 파이썬 연습도 하고 실제 체스 게임을 구현
Machine Learning (ML) - 1. Concept and Definition
Arthru Samuel (1959): ML means that it gives computers the ability to learn without being explicitly programmed.\*\*Tom Mitchell (1988): There are 3 c

03.20.23
경사 하강법(Gradient Descent)은 기계학습 및 최적화 알고리즘에서 널리 사용되는 방법 중 하나입니다. 목적 함수의 기울기(gradient)를 사용하여 함수의 최소값을 찾아내는 방법이다.epoch(에포크)란 학습 데이터 전체를 한 번씩 모두 사용하여 학습을
tensorflow로 선형회귀 하는 법
오늘은 인공지능프로그래밍 시간에 했던 tensorflow로 선형회귀를 하는 방법을 알아보자.우선 필요한 라이브러리들을 import 해줍니다.x는 feature, y는 target입니다.model.add에서 출력 값, 입력 변수, 분석 방법에 맞게끔 모델을 설정합니다.m

딥러닝(선형회귀,경사하강법)
오늘은 인공지능프로그래밍 시간에 배운 선형 회귀 경사하강법에 대해 알아보자.경사 하강법은 이렇게 반복적으로 기울기 a를 변화시켜서 m 값을 찾아내는 방법입니다.여기서 우리는 학습률(learning rate)이라는 개념을 알 수 있습니다. 학습률을 너무 크게 잡으면 한