위 구조와 같이 음성 처리를 중점으로 온프레미스 환경에서 서비스 구축한다.nodemon node.js 애플리케이션을 자동으로 재시작하는 패키지dotenv .env에서 변수들을 불러올 수 있도록 하는 패키지morgan HTTP req logger middlewarewi
전체 인프라를 구축하기 이전 왼쪽과 같이 온프레미스 도커 환경에서 각 컨테이너간의 테스트를 마치고 최종적으로는 K8S를 통해 서비스하는 것이 목표각 컨테이너는 Webpack이나 vue-cli-service의 결과 빌드 파일을 서빙한다.https://cli.v
.gitignore main.tf network.tf iam.tf eks.tf ebs.tf
위 구조와 같이 추후 개발될 인공지능 모델을 서빙할 수 있는 flask 서버를 구축한다Flask, torch, flask_cors 파이썬 모듈을 설치한다.이후 5001번 포트에서 /transcribe 라우터로 요청받을 서버를 생성한다인공지능 모델이 개발되기 이전이기 떄
이전까지 구현한 STT 로직은 위와 같이 구성되어 있다.먼저 MediaRecorder의 blob 데이터를 setInterval을 통해 express 서버로 전송하면 Queue에서 해당 데이터를 wav형태로 변환하고 REST API를 통해 flask로 전송한다. 이후
https://github.com/fd873630/deep_speech_2_koreanDeepSpeech 모델을 활용한 KoSpeech의 오픈소스 라이브러리를 참고하였다해당 리포지토리를 fork하고 requirements.txt으로 파일 종속성을 설치한다.또한
현 단계에서 위와 같이 Intra 개발자와 Application 개발자가 원활하게 협업할 수 있도록 Github Action을 통해 각 Application의 변경사항이 push 되었을 때 EKS에서 Docker Image를 불러올 수 있도록 파이프라인을 구축한다.G
Cloud9 Setup Trouble Shooting ![](https://velog.velcdn.com/images/judemin/post/495b495c-668c-4f0c-accd
현 단계까지 구현된 전체 구조도는 위와 같다.Flask 서버의 경우 3개의 built-in 인공지능 모델을 사용하고 있다.또한 현재 GithubAction, Kustomzie, ECR, ArgoCD를 활용한 파이프라인은 Vue 앱만 배포하고 있다.Hugging Fac
위 코드로 ChatGPT API 요청 로직을 구현한다. 특정 음성 데이터가 위처럼 여러번 반복해서 해석되는 오류가 발생하였다.이는 response.data.length를 조건에 맞게 Frontend로 돌려주어 해결하였다.this.lineCount >= 10 조건을 통해