본문 바로가기

전체 글

(107)
AI 개발 효율 극대화, 나의 MCP 적용 후기 (feat. 옵시디언, Supabase) 최근 개발자 커뮤니티의 가장 뜨거운 화두는 단연 인공지능(AI)의 활용일 것입니다. 많은 개발자들이 코드를 생성하거나 디버깅 아이디어를 얻는 등 다양한 방식으로 AI의 도움을 받고 있습니다. 하지만 단순히 질문하고 답변을 얻는 것을 넘어, AI가 내 개발 환경과 직접적으로 소통하며 자율적으로 작업을 수행하게 할 수는 없을까요? 이 질문에 대한 해답으로 최근 주목받고 있는 개념이 바로 MCP (Modular Control Plugin, 혹은 사용자에 따라 다르게 불릴 수 있는 AI 연동 플러그인) 입니다. MCP는 AI 에이전트가 특정 응용 프로그램이나 데이터베이스, 파일 시스템 등 외부 환경을 직접 제어할 수 있도록 연결해주는 '다리'와 같은 역할을 합니다.저 역시 수많은 MCP를 직접 사용해보며 개발..
Next.js와 Vercel 종속 논란, 핵심을 놓치고 있는 것은 아닐까요? 최근 웹 개발 시장, 특히 스타트업과 개인 개발자 사이에서 최소 기능 제품(MVP, Minimum Viable Product)을 신속하게 개발하고 출시하는 새로운 공식이 떠오르고 있습니다. 바로 넥스트JS (Next.js), 버셀 (Vercel), 그리고 슈퍼베이스 (Supabase)를 조합하는 방식입니다. 이 기술 스택은 놀라운 개발 속도와 편의성을 제공하며 많은 이들의 찬사를 받고 있습니다. 하지만 빛이 있으면 그림자도 있는 법일까요? 일각에서는 이러한 흐름에 대한 우려의 목소리가 나오고 있습니다. "넥스트JS는 결국 버셀이라는 특정 플랫폼에 개발자들을 종속시키려는 큰 그림이 아니냐", "버전이 올라갈수록 넥스트JS가 점점 무거워지며 배보다 배꼽이 더 커지는 상황이다" 와 같은 비판적 시각이 존재합니..
노래방 일본 노래 검색 서비스 | 제 9.5부 - 단순 노래 비교인데 Gemini API가 시간이 오래걸리는 이유 안녕하세요, 1인 사업가와 개발자 여러분! 펭귄 뮤지엄입니다. 🐧지난 포스팅 마지막, 저는 데이터 병합 작업에 약 2,936시간(122일)이라는 절망적인 예상 시간과 함께 해결책을 찾지 못한 아쉬움을 토로했습니다. 솔직히 그 글을 마무리하면서 '이 프로젝트, 이대로 괜찮을까?' 하는 생각마저 들었습니다.하지만! 포기하지 않고 이 문제를 계속 파고든 결과, 마침내 해결의 실마리를, 아니, 막힌 도로를 뚫어버릴 고속도로를 찾아냈습니다. 오늘은 122일짜리 작업을 단 18시간으로 단축시킨 그 극적인 과정에 대해 이야기해 보려 합니다. 🤯 나를 괴롭혔던 두 가지 문제: 시간과 에러문제는 복합적이었습니다. 단순히 시간만 오래 걸리는 게 아니었죠.시간의 장벽: 122일. 이 숫자는 사실상 '자동화 실패'를 의..
노래방 일본 노래 검색 서비스 | 제 9부 - 수집한 데이터 정재하기 (3)(TJ와 KY, 분열된 노래 데이터를 하나로 합치기 ) 안녕하세요, 1인 사업가와 개발자 여러분! 펭귄 뮤지엄입니다. 🐧지난 포스팅까지 우리는 제미나이(Gemini) API의 힘을 빌려 텅 비어있던 데이터에 생명을 불어넣었습니다. 하지만 데이터 정제의 여정에는 아직 최종 보스가 남아있습니다. 바로 TJ와 KY(금영)로 나뉜 중복 데이터를 통합하고, 동일한 노래의 노래방 번호를 합치는 작업입니다. 상상해 보세요. 사용자가 애창곡을 저장하는데, 같은 노래를 'TJ 버전'과 'KY 버전'으로 따로 저장해야 한다면 얼마나 불편할까요? 훌륭한 사용자 경험을 위해서는 반드시 넘어야 할 산입니다.이번 포스팅에서는 이 분열된 데이터를 어떤 전략으로 합칠 수 있는지, 그 험난하지만 의미 있는 과정을 모두 담아보려 합니다. 자, 데이터 정제의 마지막 여정을 함께 떠나보시죠!..
노래방 일본 노래 검색 서비스 | 제 8부 - 수집한 데이터 정재하기 (2)(Gemini API 데이터 자동 생성 실전편) 안녕하세요, 1인 사업가와 개발자 여러분! 펭귄 뮤지엄입니다. 🐧지난 포스팅에서 우리는 데이터베이스 스키마를 성공적으로 구축했습니다. 하지만 데이터가 없다면 잘 차려진 진수성찬도 그림의 떡이겠죠? 특히 제가 수집한 초기 데이터에는 생략된 가수 이름과 노래 제목, 그리고 새롭게 채워 넣어야 할 한국어 제목(koName)과 한국어 아티스트명(koArtistName) 필드라는 큰 숙제가 남아있었습니다.수천, 수만 개의 데이터를 일일이 검색해서 채워 넣는 것, 상상만 해도 아찔합니다. 이 지루하고 반복적인 작업을 해결하기 위해, 우리는 똑똑한 조력자 Gemini API를 활용하기로 했습니다. 자, 그럼 지금부터 Gemini API를 이용해 어떻게 데이터를 자동으로 생성하고 풍성하게 만들었는지, 그 여정을 함께..
노래방 일본 노래 검색 서비스 | 제 7부 - 수집한 데이터 정재하기 안녕하세요, 1인 사업가와 개발자 여러분! 펭귄 뮤지엄입니다. 🐧지난 포스팅까지의 대장정을 통해, 우리는 금영(KY)과 TJ 노래방의 방대한 데이터를 모두 수집하는 데 성공했습니다. 하지만 이 날것의 데이터(Raw Data)를 그대로 데이터베이스에 넣을 수는 없습니다. 지금부터는 프로젝트의 심장을 만드는 과정, 바로 '데이터 정제(Data Cleansing)'를 시작해야 합니다. 솔직히 이 과정은 지루하고, 귀찮고, 끝이 보이지 않는 터널처럼 느껴지기도 합니다. 하지만 이 궂은 작업을 거쳐야만 비로소 우리가 원하는 서비스를 개발할 수 있는 단단한 뼈대가 만들어집니다. 여기까지 함께 달려와 주신 여러분도 같은 마음이시겠죠? 자, 심호흡 한번 하고 꾹 참고 함께 나아가 봅시다! 💪 첫 번째 관문: 파..
노래방 일본 노래 검색 서비스 | 제 6부 - Octoparse로 노래방 노래 데이터 쉽게 추출하기 안녕하세요, 1인 사업가와 개발자 여러분! 펭귄 뮤지엄입니다. 🐧지난 포스팅에서는 Gemini AI의 힘을 빌려 금영(KY) 노래방 데이터를 수집하는 과정을 보여드렸죠? 오늘은 그 두 번째 여정으로, 또 다른 거인 TJ 노래방 데이터 수집에 도전해 보려 합니다. 하지만 이번에는 조금 다른 방식을 사용해 볼 거예요.코딩에 매달리는 대신, 아주 강력하고 편리한 '서비스'를 이용해 데이터를 크롤링하는 과정을 전부 보여드리겠습니다. 개발 지식이 조금 부족하더라도 '이런 방법도 있구나!' 하고 재미있게 보실 수 있을 겁니다. 그럼, 지금 바로 시작해 볼까요? 🧐 1단계: 적을 알자! TJ 노래방 사이트 분석웹 크롤링의 첫걸음은 언제나 목표 사이트를 철저히 분석하는 것입니다. (이 부분은 약간의 개발 지식이 ..
노래방 일본 노래 검색 서비스 | 제 5부 - 크롤링으로 노래방 노래 데이터 추출하기 안녕하세요, 1인 사업가와 개발자 여러분! 펭귄 뮤지엄입니다. 🐧지난 시간, 서비스의 뼈대가 되는 ERD와 Prisma로 스키마를 튼튼하게 설계해 보았는데요.자, 이제 튼튼하게 지은 집에 가구를 채워 넣을 시간입니다. 바로 서비스의 핵심, '데이터'를 쌓는 작업이죠. 하지만 솔직히 이 작업, 사이드 프로젝트 과정에서 가장 귀찮고 지루한 단계 중 하나 아닌가요? 화려한 프론트엔드나 흥미로운 백엔드 로직 개발에 대한 열정은 넘치지만, 막상 데이터를 하나하나 쌓기 시작하면 지쳐서 프로젝트를 중단하게 되는 경우가 허다합니다. (저 역시 그런 경험으로 폐기된 프로젝트 폴더가 여럿 있답니다...😂) 그래서 오늘은 이 지루한 데이터 수집 작업을 AI와 함께 스마트하게 자동화하는 여정을 떠나보려 합니다. 손으로 한..