ECR에 helm chart(.tgz) 파일을 push 하니다음과 같은 "404 Not Found" 에러 발생하였다. 1) 디버깅로그를 확인해보니 Helm이 OCI 이미지로 ECR에 push할 때ECR 레포지토리 이름이 helm_frontend/frontend로 잘못 해석된 것임을 알 수 있었다. 현재 나의 설정은 다음과 같다.ECR 레포지토리 이름 : helm_frontend.tgz 이름: frontend-0.1.0.tgz따라서 ECR로 push하기 위해서는 레포지토리 이름이 로그처럼"helm_frontend/frontend" --> "helm_frontend"가 되어야 한다. 2) 해결 방법이는 .tgz 이름과 ECR 레포지토리 이름을 일치시키면 바로 해결 가능하다. 나는 기존의 Chart.ya..
[ 목차 ] Amazon Kinesis Video Streams 생성하기Amazon Kinesis Video Streams Producer SDK for C/C++ 및 GStreamer Plugin (kvssink), JNI 설치Kinesis Video Streams로 실시간 웹캠 스트리밍 1. Amazon Kinesis Video Streams 생성하기 2. Amazon Kinesis Video Streams Producer SDK for C/C++ 및 GStreamer Plugin (kvssink), JNI 설치아래 링크를 참고하여 진행하였다. GitHub - awslabs/amazon-kinesis-video-streams-producer-sdk-cpp: Amazon Kinesis Video ..
[ 목표 ]1. firebase로 프론트엔드, 백엔드 배포하기2. Gemini API 사용하기 [ 단계 ]1. 기본 설정 1-1. firebase project 생성 1-2. firebase CLI설치 1-3. firebase Login2. 프로젝트 구성 2-1. 클라이언트 사이드(프론트엔드) hosting 초기화 및 배포 2-2. 서버 사이드(백엔드) functions 초기화 및 배포3. 프로젝트 완성 3-1. 코드 수정 3-2. 재배포 [ 결과물 ]Gemini API를 사용하여 꿈을 해석해주는 웹 서비스를 만들고 firebase로 배포 1. 기본 설정1. Firebase 프로젝..
1. Visual Studio Code 설치2. Visual Studio Code EXTENSIONS 메뉴에서 Remote-SSH 설치Remote-SSH를 설치하면 자동으로 아래 이미지에서 체크한 3개가 설치될 것이다. 3. Config 수정하기3-1. 왼쪽 하단의 Open a Remote Window라는 아이콘을 선택 후 Connect to Host 선택 3-2. Configure SSH Hosts 선택 3-3. C:\Users\gch32\.ssh\config 선택하면 config 파일이 열림 3-4. config 파일 수정하기Host에 대한 설정을 입력해준다.ICT_AWS라는 호스트 추가하였다.HostName은 EC2 public ip이며, IdentityFile은 pem파일 경로로 지정하면 된다...
[ 단계 ]1. 미니콘다 설치 2. Jupyter Notebook 설치 및 외부 접속 허용하기 3. EC2 인바운드 규칙 편집 1. 미니콘다 설치1. 미니콘다 파일 다운로드wget https://repo.anaconda.com/miniconda/Miniconda3-latest-Linux-x86_64.sh 2. bash 파일을 실행bash Miniconda3-latest-Linux-x86_64.sh bash 파일을 실행하면 다음처럼 라이센스가 나오게 된다. yes와 엔터키를 눌러 진행한다. "Thank you for installing Miniconda3!" 문구 나오면 미니콘다 정상 설치 완료!!! 3. 미니콘다 가상환경 실행미니콘다가 bashrc 환경 변수에 자동으로 등록되어 있다. source ~/..
1. Spark 설치1. Spark 설치 파일 다운로드wget https://archive.apache.org/dist/spark/spark-3.2.4/spark-3.2.4-bin-hadoop3.2.tgz 2. Spark 설치 파일 압축풀기tar xvfz spark-3.2.4-bin-hadoop3.2.tgz 3. 폴더명 수정하기mv spark-3.2.4-bin-hadoop3.2/ spark-3.2.4/ 2. Spark 환경 변수 편집하기vim ~/.bashrc 명령어로 bashrc 파일을 연다. 다음과 같이 스파크 환경 변수를 설정한다.# SPARKexport SPARK_HOME=/path/to/spark-3.2.4export PATH=$PATH:$SPARK_HOME/bin 3. Spark 실행하기S..