이전 게시물에서 여행 유형을 기반으로 사용자의 여행을 더 정밀하게 분석할 수 있는 추가 기능에 대해 소개했다. 에이전트가 사용자의 여행 유형을 어떻게 대화에 반영하고, 사용자의 여행 선호도를 어떻게 분석하는지 코드를 통해 살펴보자.
기능을 발전시켜두고 기록은 까먹은 채... 지금이라도 복습 겸 기록을 시작한다. 새로운 기능 이전 게시물에서 보완해야 하는 부분에 사용자의 여행 취향을 반영할 수 있는 효율적인 방법이 필요하다고 얘기했었다. 대화를 시작하기 전 사용자의 여행 유형을 파악하고 그 유형을 기반으로 대화를 진행하면 사용자에게 더 잘 맞는 답변
구조화된 출력(Structrued Outputs)? 우리가 사용하는 OpenAI 모델은 웹과의 통신을 용이하게 하기 위해 구조화된 출력(Structured Outputs)을 사용해야 했다. 구조화된 출력(Structured Outputs)은 LLM의 답변을 지정된 J
OpenAI의 구조화된 출력(Structured Outputs)와 웹 통신으로 JSON 데이터를 다루면서 JSON에 대해 공부하게 되었다. 이번 게시물에서는 JSON의 개념 정리를 짧게 해보고 자주 일어나는 오류에 대해 살펴 보자
이전 게시물에서 나만의 agent로 여행 지원 챗봇의 흐름을 설명하였다.그 흐름에 맞춰 구현한 코드 내용에 대해 구체적으로 기록해 보려고 한다.

저번 게시물에서 프로그램에 대해 간단하게 소개하며 개발하면서 까다로웠던 점들을 이야기했다. 다시 한번 그 부분을 살펴보며 LangChain과 LangGraph 라이브러리로 어떻게 구현할 예정인지 살펴보겠다.
공모전에서 챗봇을 개발하는 파트를 맡아 한국 로컬 위주의 여행 지원 봇을 구축해 보았다. 아직 완성본은 아니기에 현재 완료된 부분과 앞으로 새롭게 추가할 기능, 변경된 부분들을 차분히 기록해보고자 한다.
공모전에서 챗봇을 개발하는 부분을 맡아 처음에는 LLM 모델을 파인 튜닝(fine-tuning)을 통해 우리 프로그램 만의 AI를 만들려고 했다. 파인 튜닝은 사전 학습 모델에 새로운 추가 데이터를 학습 시켜 모델을 최적화하는 방법이다.
Rag 시스템을 만들기 위한 테스트 과정에서의 기록입니다. 이전 게시물에서 Milvus Lite를 이용해 간단하게 데이터베이스를 구축하고 컬렉션을 생성했다. 이번에는 생성한 컬렉션에 데이터를 입력해보는 과정을 알아보겠다.
Rag 시스템을 만들기 위한 테스트 과정에서의 기록입니다.Milvus Lite를 이용해 간단하게 데이터베이스를 구축해보고 테이블 생성해본다. 벡터 임베딩과 유사도 검색 기능을 갖춘 오픈 소스 데이터베이스 Milvus의 경량 버전이다.
교내 데이터베이스 수업에서 진행한 프로젝트를 기록한 게시물 입니다. 외부 데이터를 활용하여 약물의 성분을 검색하고 해당 성분에 대한 효과를 조사했다. 이 부분은 팀원들이 맡았던 부분으로 조사 과정과 결과를 설명하고자 간략하게 기록한다. 약물의 ndc 코드 조회 약물
프로젝트에서 RAG 기술을 사용하기 위해 Vector DB를 구축해야 한다. 선정한 DB는 Milvus이며, 오픈 소스에다가 클라우드 서비스까지 지원하며 성능도 좋다고 하기에 사용해보기로 결정했다.
교내 데이터베이스 수업에서 진행한 프로젝트를 기록한 게시물 입니다. 지난 게시물에서 MIMIC-IV 데이터와 선정한 연구 주제에 대해서 설명했다. 연구의 순서대로 최다 처방 약물 10가지를 추출하고 해당 약물들이 처방되는 질환에는 어떠한 것이 있는지 알아보자.

교내 데이터베이스 수업에서 진행한 프로젝트를 기록한 게시물 입니다. MIMIC-IV(Medical Information Mart for Intensive Care IV)는 미국 메사추세츠주 보스턴에 있는 Israel Deaconess Medical Center에 입원한
백준 알고리즘을 풀며 알게된 점을 메모한 게시물입니다. 처음 백준을 풀기 시작해보니 코드 처리 속도가 중요하다는 것을 알게 되었다. 오늘은 Scanner와 BufferedReader 차이점과 StringTokenizer와 split의 차이점에 대해 메모한다.
깃허브에 파일들을 올리다 보니까 프로그램을 만질 때 지워도 매번 생성되는 Unity의 Logs, UserSettings 파일들을 깃허브에 매번 업데이트 해야 하는지 의문이 생겼다...

프로젝트에서 LLM 모델을 사용해야 하고, 특정 데이터셋을 사용하여 추가적인 학습도 진행해야 한다. 따라서 프로젝트에 맞는 생성형 AI 오픈 모델을 선정해야 한다. 오픈 모델을 찾아보는 와중에 구글이 새롭게 발표한 생성형 AI Gemma를 직접 테스트 해보았다.

이제 전달받은 데이터를 아바타에 실시간 적용하여 웹캠(webcam)으로 찍은 사용자의 동작을 아바타가 트래킹 할 수 있는지 확인해보겠다.
저번 게시물에서 관절의 위치를 이용해 아바타의 움직임을 구현해 보았다. 이번에는 mediaPipe 모듈로 실시간 감지한 관절의 위치를 유니티에 전송해서 데이터를 잘 받아올 수 있는지 확인해 보겠다.
통신을 시작하기 전 mediaPipe 모듈을 실행해보았다. 웹캠(webcam)을 키고 몇 초간 어떤 동작을 수행하면서, 필요한 13개의 관절 위치값을 텍스트 파일에 기록했다. 이 값들을 아바타에 적용시켜서 아바타가 동작을 잘 수행하는지 최종적으로 점검 했다.