이번에 TRAE 바이브코딩 해커톤(Build with TRAE @Seoul)에 참가한 후기입니다.
TL;DR (한 줄 요약)
기회 노트(OPP-Radar)는 유튜브/블로그/RSS/웹사이트 같은 곳에 흩어진 글·영상을 자동으로 모아,
“요즘 사람들이 자주 말하는 불편(문제) + 그걸 겪는 사람(대상) + 요즘 뜨는 해결 흐름”을 한 장짜리 기회 카드로 정리해주는 서비스입니다.
그리고 가정 몇 개만 넣으면 시나리오 시뮬레이션으로 “이게 되려면 뭐가 꼭 맞아야 하는지(성공조건/민감도)”까지 보여줘서 Go/No-Go 판단을 빠르게 돕습니다.
1) 해커톤 정보 (참고 링크 포함)
- 행사 안내(Luma): Build with TRAE @Seoul
- 해커톤 포털/주제(공식 페이지): hackathon.oswarld.com
개발 시간은 짧고(하루), 제출물은 웹사이트 형태로 만들어야 해서 “멋있어 보이는 기능”보다 심사위원이 바로 이해할 수 있는 핵심 경험에 집중했습니다.
2) 우리가 만든 것: 기회 노트 (OPP-Radar)
한 문장 설명
기회 노트(OPP-Radar)는 흩어진 정보들을 ‘읽고 저장’에서 끝내지 않고,
근거가 붙는 기회 카드로 정리해서 “다음 행동(실험/판단)”까지 꺼내주는 도구입니다.
핵심 기능(심사 포인트 중심)
- 멀티 소스 자동 수집: RSS/웹/영상 등에서 주제 관련 콘텐츠를 모읍니다.
- Ontology(온톨로지)로 정리: 수집된 내용을 같은 기준으로 자동 분류합니다. (예: 문제(Problem) / 대상(Segment) / 변화(Signal) / 해결(Solution) / 리스크(Risk) / 가정(Assumption))
덕분에 “비슷한 흐름”이 자동으로 묶이고, 기회 패턴을 만들 수 있습니다. - 근거 링크(Evidence Pack): 카드의 핵심 주장마다 출처 링크를 붙여 “왜 이런 결론이 나왔는지”를 바로 확인할 수 있게 했습니다.
- 우선순위 점수(설명 가능한 방식): 근거/흐름의 뚜렷함/시장성/실행 난이도 같은 기준으로 점수를 매겨 “뭐부터 볼지”를 정합니다.
- 가정 기반 시나리오 시뮬레이션: 가정 몇 개만 넣으면 낙관/기준/비관 시나리오와 민감도 Top3, 성공조건을 보여줘서 “이 아이디어가 되려면 뭐가 꼭 맞아야 하는지”를 빠르게 확인할 수 있습니다.
- Eval(에이전트 평가 시스템): 에이전트가 만든 결과가 ‘그럴듯한 말’로 끝나지 않도록 근거 링크가 붙었는지 / 분류(태깅)가 일관적인지 / 주제에서 벗어나지 않는지 같은 체크를 자동으로 돌립니다.
3) 아이디어 진행 과정(프롬프트 작업 요약)
이번 프로젝트는 “생각과 행동”이라는 팀명처럼, 생각(정리/구조화) → 행동(판단/실험) 흐름이 끊기지 않게 만드는 걸 목표로 했어요.
- 문제 재정의: “정보를 모으는 툴”이 아니라 의사결정 가능한 결과물(기회 카드)을 만드는 방향으로 목표를 바꿨습니다.
- MVP 스코프 강제 축소: 해커톤 시간 안에 완성 가능한 범위를 잡기 위해 “수집 → 기회 카드 3개 → 시뮬레이션 1개”로 핵심만 남겼습니다.
- 토론형 검토(긍정/부정 에이전트): “멋있어 보이지만 위험한 부분”과 “임팩트를 키울 부분”을 나눠서 여러 라운드로 기획을 다듬었습니다.
- Ontology + Evidence 구조 확정: 그냥 요약이 아니라, 같은 기준으로 분류되고 근거 링크가 붙는 구조를 확정했습니다.
- 시뮬레이션을 ‘예측’이 아니라 ‘성공조건 제시’로 포지셔닝: 맞추는 게 목적이 아니라, 팀이 논쟁할 포인트를 변수로 바꾸는 데 집중했습니다.
- Eval(평가) 추가: 에이전트 결과물을 “믿을 수 있게” 만들기 위해 자동 평가 지표/로그 확인 흐름을 넣었습니다.
4) 결과물 / 데모 링크
✅ 웹앱 결과물: 기회 노트 (OPP-Radar) 데모
직접 들어가서 “기회 카드”가 어떻게 만들어지는지, 그리고 시뮬레이션/평가(Eval) 화면이 어떤 흐름으로 연결되는지 확인할 수 있습니다.
5) 발표 자료(PPT)
발표 자료: 기회 노트(OPP-Radar) 발표 슬라이드
6) 마무리: 배운 점 & 다음 단계
- 요약보다 ‘판단 가능한 결과물’이 훨씬 강력: 링크/요약만으론 회의가 끝나지 않는데, 근거/가정/리스크/성공조건이 한 장에 모이면 대화가 빨라졌습니다.
- 에이전트는 “기능”보다 “신뢰 장치”가 중요: Eval(평가) + 근거 링크 + 로그가 있어야 실제로 쓸 수 있다는 걸 체감했습니다.
- 확장 아이디어: 더 많은 소스 어댑터(로그인 기반 포함), 더 촘촘한 평가(Evals), 팀 협업 기능(카드 공유/리뷰/실험 관리)로 확장해볼 계획입니다.
링크 모음
TRAE 사용 후기 – “생각과 행동”을 진짜로 줄여준 도구
이번 해커톤에서 가장 놀랐던 건, 개발을 “코딩 많이 하는 사람 승부”가 아니라 기획을 빨리 잡고, 바로 확인하면서 고치는 사람 승부로 바꿔줬다는 점이었어요. 그 중심에 TRAE가 있었습니다.
결론부터: 자동화가 너무 잘 돼서, 내가 할 일이 ‘진짜 줄었다’
기존에 Cursor / AntiGravity / Claude Code도 써봤는데, 이번에는 TRAE가 훨씬 “거의 자동으로 굴러가는 느낌”이 강했습니다. (물론 도구마다 강점이 다 있지만, 해커톤처럼 시간이 짧을수록 이 차이가 체감이 컸어요.)
- 내가 주로 한 일은 “기획”이었다
실제로 제 시간이 가장 많이 들어간 건 코딩이 아니라, ChatGPT 5.2 Pro로 기획서 초안을 만들고 → 긍정/부정 관점 토론으로 다듬어서 → 최종 기획을 확정하는 과정이었습니다. 기능 정의가 빨리 잡히니까, 구현은 오히려 ‘따라오는’ 느낌이었어요. - 그 다음은 계정/인프라 연결이 대부분
아키텍처 쪽에서는 Vercel, Supabase, GitHub, OpenRouter 같은 필요한 계정들을 연동하고 환경을 세팅하는 게 메인이었습니다. “개발자가 진짜로 손으로 파야 하는 영역”이 여기로 확 줄어든 느낌이었어요. - 구성안이 나오는 속도가 빨랐다
전체 구성(뼈대) 나오는 속도는 Lovable과 비슷한 체감이었고, 약간 느린 순간이 있어도 IDE 안에 브라우저(프리뷰)가 같이 붙어 있어서 바로 확인하면서 수정-반영 루프를 돌릴 수 있었습니다. 그래서 결과적으로는 “거의 비슷하게 빠르게” 느껴졌어요. - 추적/수정이 편했다
기존 IDE(예: VS Code 기반 환경, Cursor, AntiGravity)에서 작업할 때보다 지금 무슨 변경이 일어났는지 / 어디를 어떻게 고칠지를 따라가기가 훨씬 편했고, 수정도 “지시 → 확인 → 반영” 흐름이 단순해서 스트레스가 적었습니다. - “이제 개발자가 관여할 일이 거의 없어지겠는데?”라는 체감
특히 Claude Code로 작업할 때 대비해서, 체감상 제 작업량이 최소 1/3 이상 줄어든 느낌이었습니다. (정교한 최적화나 난이도 높은 문제는 여전히 사람 손이 필요하겠지만, 해커톤 MVP 제작에서는 “정말 편했다” 쪽이 더 컸어요.)
정리하면, 이번 해커톤은 TRAE 덕분에 “코딩을 잘하는 것”보다 “무엇을 만들지 명확히 정하고 빠르게 검증하는 것”에 시간을 쓸 수 있었고, 그게 결과물 완성 속도에 직접적으로 영향을 줬습니다.
TRAE 공식 사이트: https://www.trae.ai/
댓글 남기기