스토리 홈

인터뷰

피드

뉴스

조회수 350

"제 능력치를 더 시험해보고 싶어요."

사랑방처럼 옹기종기 모여 이야기꽃을 피워내고 있거나 호탕한 웃음소리가 들리는 쪽으로 시선을 돌리면 항상 존재하고 있는 사람이 있다. 바로 B.A.T 영상 디자이너이자 분위기 메이커를 담당하고 있는 나은아다. 그녀는 제 나이다운 흥과 체력뿐만 아니라 제 나이답지 않은 광범위한 정보와 감성을 보유하고 있는 긍정적인 TMI 의 표본이다. 그래서인지 번-아웃 되어 지친 분위기의 전환이 필요하거나 뇌의 과부화로 아이디어가 고갈이 되었거나 등 꼭 필요할 때마다 찾게 된다. 인터뷰가 필요한 지금, 아니나 다를까 또 그녀를 찾았다.머리 색이 여름처럼 산뜻해진 나은아 님, 당신에 대해 말해주세요!어제 염색했는데, 색 잘빠졌죠? 아, 맞다 인사부터 해야지. 안녕하세요, B.A.T에서 영상 디자이너를 맡고 있는 나은아입니다! 플레이그라운드 브루어리, 오늘의 건강 등 디지털 페이지에 업로드되는 영상 및 모션 콘텐츠를 비롯해 KT&G 상상 스타트업 캠프의 영상 콘텐츠 시리즈를 만드는 등 다양한 제작 업무를 맡고 있습니다. 촬영이 필요한 경우엔 현장에 직접 나가 사진이나 영상을 찍어오기도 해요.B.A.T에서의 업무는 어때요? 만족도로 따진다면요. 나이에 비해 일찍 일을 시작한 편이라 B.A.T에 오기 전에도 여러 곳에서 일을 했어요. 주로 PD가 있는 포스트 프로덕션에서 일을 해왔는데, 방송 프로그램은 거의 정해진 템플릿이 있고 PD가 이미 기획해 놓은 상황에 투입되다 보니 단순히 제작만 하는 실무자 느낌이 강했습니다. 그런데 B.A.T에서는 제가 콘셉트를 잡고 그에 맞는 스토리보드를 짜고 촬영 및 편집까지 다 할 수 있게 된 겁니다. 내가 생각한 대로 연출하고 작업물을 낸다는 것이 얼마나 즐거운 일인지 몰라요. 덕분에 제 능력치를 깨달을 수 있게 되었죠. 저를 온전히 믿고 맡겨주시는 것도 감사하고, 스스로가 잘 해낼 수 있다는 자신감까지 있기에 만족도가 높은 편입니다!오, 자신감 좋은데요! 그 자신감은 언제, 어떻게 하면 나오나요?클라이언트 쪽에서 반응이 좋으면 '아, 내가 잘했구나' 하는 생각이 들면서 뿌듯함에 제 자신을 칭찬하곤 합니다. (웃음) 그리고 프로젝트 구성원끼리 혹은 내부 다른 동료들이 보고 작업물을 보고 아낌없이 칭찬해줄 때도 매우 기분 좋고 자신감 뿜뿜 돋아요.[KT&G 상상 스타트업 캠프 데모데이 티저 영상을 위한 3D 타이포 모델링 작업]  최근 마블 티저처럼 만든 KT&G 상상 스타트업 캠프 데모데이 영상 완전 멋있었어요! 내부에서도 잘 만들었다고 칭찬이 자자했잖아요.흐흐, 맞아요. 진짜 뿌듯하고 기분 좋았습니다! 사실 갑자기 기분 좋아질 때도 있는데, 영상 작업 끝내고 출력할 때 렌더링 바만 올라가도 너무 신나요~그건 그냥 직업병 아니에요? (웃음) B.A.T에 오래 머무른 사람으로서, 좋은 부분과 조금은 아쉬운 부분에 대해 과감 없이 말해주세요.스타트업이다 보니 무엇보다 개개인의 역량을 최대의 최대로 이끌어 낼 수 있고, 하고 싶은 걸 빠르게 도전해 볼 수 있다는 것이 큰 장점 아닐까요? 특히 ‘이런 건 어떨까요?’라고 의견을 내면 주저하지 않고 ‘그럼 그럴까?’ 하는 답변이 돌아오는 게 너무 좋아요! 대신, 다들 열정과 기량이 넘치다 보니 많이 바쁘고 외근이 잦은 분들이 많아 얼굴을 자주 보지 못하는 것이 아쉬워요. 퇴근 후 홍대에서 술 마시자고 말로만 하고 있는데… (비장한 표정으로) 이번달엔 진짜로 만날 거에요.아참, 잊어버릴 뻔 했는데 B.A.T 사무실이 예뻐요. 제가 꾸며서 그런 거 맞고요. (웃음) 잠시 머리 식힐 동안 담소를 나눌 수 있는 푹신한 소파가 있고, 다양한 간식들과 머신 커피도 준비되어 있고, 귀여운 배티도 있어요!배티가 뭐예요?로봇 청소기요! 로봇 청소기에 이름을 지어주자는 의견이 나와 내부적으로 네이밍 공고를 했어요. 디자이너 임철규 님이 B.A.T에 TY를 붙여서 배티로 하는게 어떻냐고 말하는데 와 이거다 싶더라고요. 심지어 BATTY라는 단어 뜻 자체도 '약간 제정신이 아닌' 이더라고요. 우리와 딱이다 싶었죠. 흐흐아! 제가 배티 그림도 그렸는데, 보실래요?[B.A.T의 자타공인 능력자답게, 뚝딱 그려낸 로봇청소기 BATTY]더 이상 인터뷰가 산으로 가기 전에 (웃음) 마지막으로 B.A.T 지원자들에게 한마디 한다면.어서오세요!환영합니다!그리고 저랑 같이 맛있는 점심을 드실 분들도 항시 모집하고 있습니다!역시 마지막까지 TMI인 그녀였다.. 
조회수 1045

올바른 상품 선정과 시장 조사가 필요한 이유

안녕하세요 대한민국 셀러들의 성공적인 아마존 진출을 도와주는 컨설팅 회사이자 대행사인 컨택틱의 이이삭 대표입니다.오늘의 핵심인 상품 선정과 시장 조사 방법을 논하기 앞서, 한 가지 말씀드리고 싶은 게 있습니다. “온라인 쇼핑과 오프라인 쇼핑은 다를 게 없다"라는 것입니다. 아래 이미지를 꼭 기억해주세요.이번 글은 <어떤 상품을 선정하고 어떻게 시장조사를 제대로 분석할 것인가>를 주제로 다뤄보도록 할 것입니다. 이번 주제 정말 중요합니다. 저희 컨택틱 홈페이지를 방문해보신 분들은 아시겠지만, 저희의 업무 첫 프로세스가 바로 시장조사 보고서 제공 및 컨설팅 업무입니다. 왜 그럴까요? 그 이유는 제대로 된 시장조사가 아마존 셀러로서의 성공 가능성을 진단하는 가장 기초이자 핵심이며 필수적인 과정이기 때문입니다.이런 의문 가지시는 글로벌 셀러 님들 계실 겁니다. ‘우리의 제품은 뛰어난데 왜 굳이 시장조사를 해야 하는 거지?’와 같은 물음들. 하지만 단언컨대, 아마존 시장은 제품력만으로는 승부할 수 없는 시장입니다. 지금 진출을 고민하시는 분들은 당장 아마존 US에 접속하셔서, 자신의 상품을 고객이 어떤 단어로 검색할지 생각해보시고, 제품을 검색해보시길 바랍니다. 수많은 상품이 등록된 모습을 확인하실 수 있습니다. 그 수많은 상품 리스팅 중, 본인의 제품이 뛰어나다는 것을 보여주려면, 당연하게도 경쟁자가 적어야 합니다. 가령, lip balm을 검색하면, Burt’s bee라는 저렴한 가격, 브랜드 인지도가 높은 상품이 첫 페이지에 노출됩니다. 설령, 제품력이 뛰어난 고퀄리티의  립밤을 찾는다고 할지라도, 고객이 자주 쓰는 검색 단어 즉, C.S.T(Customer Search Term)에 인덱싱되지 않는 이상, 그 뛰어난 제품력을 드러낼 기회조차 얻기 힘들게 될 수 있습니다.서두부터 다소 비관적인(?) 내용을 말씀드리는 이유는 생각보다 많은 고객사께서, 아마존에 진출하기만 하면 성공할 것이라는 막연한 기대를 하고 계셨기 때문입니다. 실제, 시장조사 컨설팅을 진행하며 한국의 글로벌 셀러들이 흔히 갖는 오해를 먼저 소개한 후에, ‘어떻게 제대로 된 시장조사를 할 것인가’를 소개하겠습니다.가장 흔한 오해: 미국 시장의 규모와 아마존 시장 규모를 착각하는 경우현재 미국의 전자상거래 중 아마존이 절반 이상의 점유율을 차지하고 있습니다. 하지만 이때의 점유율이 미국 전체 시장을 의미하지 않습니다. 미국 전역 리테일 소비에서 5%만 차지할 뿐입니다. 다시 말해서, 법인이든 개인사업자든 해외 진출을 결정하면 상품 가격, 월별 판매량과 매출의 예측치를 산정하고, 마진 조정에 따른 가격 인하 가능 범위를 설정하시게 될 텐데, 시장 규모를 착각하셔서 당황하시는 일이 없도록, 컨택틱에서는 시장조사 컨설팅 진행 시, 서두에 명확하게 이러한 오해를 풀어드립니다.올바른 시장조사를 가능케 하는 두 가지 기둥은 ‘연관성’과 ‘정확성’이라고 할 수 있습니다. 연관성은 시장조사 과정에서 사용된 자료가 ‘내가 진입하는 시장’을 제대로 반영한 것인지를 의미하고, 정확성은 해당 자료가 객관성과 신뢰성을 담보하고 있는지를 검증하기 위한 기준입니다. 시장조사를 제대로 하기 위해서 가장 선행되어야 하는 것은 핵심 키워드를 찾는 일입니다. 컨택틱에서는 Seed Keyword라고 부르는데요. 만약, 여러분이 로션(현지에서는 Moisturizer가 자연스러운 표현)을 판다고 했을 때, 아마존에 Moisturizer라고 등록된 리스팅 데이터를 모두 모아서 전체 시장 규모를 예측한다고 가정해봅시다.가령, Moisturizer로 검색했을 때, 정말 이 제품이 나오면 좋겠지만, Moisturizer stick이라든지, 아니면, 어떤 셀러가 상품 인덱싱이 잘 되게 하도록 facial mask에 ‘Moisturizer function’을 삽입한 것은 아닌지 일일이 따져보셔야 합니다. 그렇지 않다면, 내 상품과 직접 경쟁할 시장의 규모조차 제대로 파악하지 못한 채, 아마존에 진출하게 되는 것입니다.다음으로, 시장조사 자료가 연관성과 정확성을 보유했다고 가정한다면, 시장을 어떻게 ‘분류’할 것인가의 문제가 남습니다. 저희 컨택틱에서는 아마존 시장의 성숙도를 가격 변동, 리뷰 개수, 리스팅 대비 매출의 비율을 가지고 성숙, 틈새, 슬럼프 시장으로 구분합니다. 기준에 정해진 답은 없습니다. 하지만 2014년부터 현재까지 수백 개의 업체를 컨설팅 하면서 컨택틱 만의 고유 기준을 정립할 수 있었습니다. 그뿐만 아니라, Product Based Market, Brand Based Market 개념을 도입하여, 성공 가능성이 가장 높은 시장인 ‘황금 틈새시장’에 진입하기 위한 시장 데이터를 수집, 분석, 가공하는 것이 진정한 시장조사라고 할 수 있습니다.컨택틱은 수많은 업무를 대행해오고 있지만, 고객들에게 필수적으로 권유하는 서비스가 바로 시장조사입니다. 일부 고객사는 시장조사 컨설팅을 받다가 이런 말씀을 하시기도 합니다. “그래서 저희가 어떤 전략을 취해야 합니까?” 사실, 시장조사 만으로는 완벽한 전략을 구성할 수 없습니다. 전략을 ‘한정된 자원을 극대화하는 능력’이라고 정의한다면, 시장조사로 할 수 있는 것은 ‘적기’에 어떤 상품을 어느 시장에 진입시켜야 하는지에 대한 결정을 도울 수 있습니다. 전략은 곧 올바른 의사결정이기 때문입니다.제대로 하지 않으면, 안 하느니만 못하다는 말이 있습니다. 시작의 방향이 미래를 결정합니다. 올바른 지식이 미래(未來)를 미래(美來)로 만들어 줄 수 있다는 말로 이번 글을 마무리하고자 합니다.컨택틱의 모든 교육은 파트너인 글로벌셀러 창업연구소와 접수하고 진행합니다. 교육 신청은 아래 링크나 글로벌셀러창업연구소의 홈페이지를 통해 접수 가능합니다.오프라인 아마존 입문 과정오프라인 아마존 기초/심화 과정온라인 아마존 입문 과정그럼 오늘도 즐거운 글로벌 셀링 되세요!컨택틱  서울특별시 강남구 강남대로 62길 11, 8층 (역삼동, 유타워)대표 전화: 02-538-3939    이메일: [email protected]    홈페이지: https://www.kontactic.com  네이버블로그: https://blog.naver.com/kontactic   카카오브런치: https://brunch.co.kr/@allaboutamazon
조회수 319

깜짝! 서프라이즈 파티~ 지성과 미모를 겸비한 과장님 생일!

대한민국 대표배달대행바로고대한민국의새로운 배달문화를 이끌어가는바로고의 사람들삭막한 도시에서정신없는 일상그 안에서 서로서로챙겨주는훈훈한~ 바로고-바로고는팀원들의 생일까지꼼꼼하게 챙겨주며서로를 응원하며함께 일하고 성장하고 있습니다!지난 3월 24일은지성과 미모를 겸비한최지선 과장님의 생일이었어요.화려한 데코레이션으로동료들의 마음을 가득가득 담아서생일 축하 파티를 했어요~생일축하합니다~생일축하합니다~사랑하는 과장님!생일축하합니다!!!깜짝 서프라이즈 파티가 시작되었어요.모두 즐겁게 생일 축하송을 부르며과장님의 생일을 축하합니다~^^깜짝 서프라이즈 파티에기쁨을 감출 수 없는 과장님생일축하송 장면을 화면에 담으셨어요.지성과 미모를 겸비한바로고의 최지선 과장님앞으로도바로고를 잘 부탁드려요!후~ 하고 촛불을 끄고도깨비 소환도깨비는 나타나지 않았지만짧게나마 촛불을 끄며소원을 빌어봅니다.장미꽃 한 송이와 함께과장님께 마음을 전해봅니다.이럴때 정말팀웍이 넘 좋은바로고라는 점~바로고 파이팅 입니닷!마지막은 단체 사진으로역시 중요한 것은 인증샷!이렇게 좋은 회사바로고에 있습니다~^^감사합니다.
조회수 1615

최진 이야기

최진님은 내가 처음으로 만난 UX 기획자다. 지난 회사에서 새로운 사업 아이디어가 나올 때마다 했던 이야기가 있다.A: “새로운 서비스 개발을 시작합시다!"B: “그럼 기획은 누가 하나요?"A: “적당히 나눠서 해야죠."나에게 기획자라 하면 개발해야 할 것을 완벽하게 정리해서 가져다주는 마법사였다. 하지만 당시 그 일을 해줄 수 있는 사람은 없었고 매번 그 지점에서 갈등이 생기곤 했었다.8퍼센트에 처음 왔을 때 “오. 이 회사에는 기획자가 있네?”라고 생각했었다. 밑도 끝도 없이 일하기 편하겠다는 생각을 했던 것 같다. 당시만 해도 기획자에게 어떤 결과물을 기대해야 하는가? UI와 UX는 어떻게 다른 건가? 기획자와는 어떻게 일하는 것이 좋은가? 등등을 전혀 몰랐었는데 이제 진님을 통해서 하나씩 배워가고 있다. 어떻게 생각해 보면 B2B 플랫폼 개발자에서 B2C 서비스 개발자로 바뀌면서 알아야 할 것들을 배워가는 과정이라고 할 수 있겠다.내가 기획 했으니 너는 들으라. (이효진 대표님 지켜주지 못해 미안해요.)자 그럼 내가 8퍼센트의 최진님을 통해서 알게 된 'UX 기획자의 역할'을 살펴보자. (내가 잘못 알고 있다면 진님 탓이다)사람들을 토론의 장으로 데려온다.기존까지 생각하던 기획자는 모든 것을 고려한 이후에개발자: “더 이상 변경은 없는 거죠? 이대로 개발만 하면 되는 거죠?”기획자: “네!"를 할 수 있는 문서를 건네주는 사람이었다.이렇게 마법같이 한번에 최적의 솔루션을 찾는 일은 일어나지 않는다하지만 이제는 기획자에게 기대하는 바가 달라졌다. 100%를 한 번에 하는 것이 불가능하다는 것을 알고 있고, 혹시나 가능하더라도 효율적이지 않다는 것도 알고 있다. 60%를 빠르게 만들어서 회사 내 구성원들을 토론에 적극적으로 참여시키는 것이 기획자의 역할이라고 생각한다. 아무것도 없는 상태에서 무언가를 만들어내는 것은 어렵다. 당연히 그 상태에서는 생산적인 논의도 되지 않는다. 하지만 다른 사람이 해 놓은 것에 대해서 평가하는 것은 다들 손쉽게 하지 않는가. 기획자가 가져온 초안을 바탕으로 CS팀은 고객이 되어 기능을 검토하고, 그래픽 디자이너는 결과물을 상상하고, 개발자는 다른 모듈과의 연관성, 사용해야 할 라이브러리를 검토한다. 여기서 부터가 적극적인 시작이다.8퍼센트의 연결고리 최진. 직접 그린 그림에서 힙합 매니아임을 알 수 있다좋게 말하면 8퍼센트에서는 최진을 중심으로 일이 돌아간다. 하지만 실제는 그냥 이리저리 치이고 여기저기 불려 다니는 인터럽트 인생이다.답을 찾아 준다.그냥 주는 것이 아니라 찾아 준다는 것이 중요하다. 제품을 만들다 보면 결정해야 할 것들이 너무나도 많다. 버튼의 위치, 폰트의 크기, 안내 문구, 페이지 전환을 할 것인가? 에러 상황은 어떻게 처리할 것인가? 등등. 이런 질문들에 대해 답을 줄 수 있는 사람이 명확한 경우도 있다. 예를 들면 디자인을 할 때 “이런 식의 구현이 가능한가요?”라고 물으면 개발자가 답을 해 줄 수 있다. 하지만 대부분은 고객에게 던지는 질문이다. 이런 질문들에 대한 답을 찾아 주는 것이 기획자의 역할 중 하나라고 생각한다. 그 답은 영업팀에서 가지고 있을 수도 있고, 고객서비스팀에서 가지고 있을 수도 있다. 하지만 우리 모두는 그 질문을 기획자에게 던지고 기획자는 그 질문에 대한 답을 찾아 준다.프로덕트 팀의 피어리뷰 시간에 아기새님이 진님에게 전달한 피드백컨베이어 벨트를 따라 걷는다.요구사항의 정리부터 기획, 디자인, 개발, QA, 릴리즈에 이르기까지 모든 과정을 지켜보는 한 사람이 있다. 기획자다. 이 사람이 제 역할을 하지 않으면 '방과 방 사이' 같은 일이 발생한다. 기획자는 프로젝트를 시작되게 한 고객의 요구사항이 정확히 다시 고객의 손에 전달될 때까지의 과정을 지켜본다. 컨베이어 벨트를 따라 걸으며  방향이 빗나갔을 때에는 바로잡고 놓친 사용자 패스가 있을 때에는 이를 채워 넣는다. 때로는 최초의 가정이 틀렸을 때 빨간 버튼을 눌러 컨베이어 벨트를 멈추는 역할을 한다. 결국 모든 과정이 완료되어 고객에게 제품이 전달되었을 때 기획은 끝이 난다.제품에 대한 책임을 진다.원래 결정하는 자가 책임을 지는 법이다. 제품이 시장에서 좋은 평가를 얻지 못할 때 사람들은 그 책임을 돌릴 곳이 있다. 기획자다.쟤가 그렇게 하라고 했어요. (흥. 난 몰라)물론 8퍼센트는 그 책임을 서로 미루지 않고 다 함께 진다. 하지만 진님은 그 책임을 무겁게 느끼고 있다. 외부에서 쓴소리가 들려올 때 받는 스트레스를 보면 알 수 있다.이 정도가 내가 생각하는 UX 기획자가 하는 일이다. 다른 회사의 UX 기획자가 하는 일과 얼마나 다를지는 모르겠다. 크게 깨닫지 못하고 있었는데 글로 정리하고 보니 UX 기획자는 서비스를 만드는 회사에서 대단히 중요한 사람이다. 새삼 감사한 마음이 든다. 사실 진님은 지금까지 이야기한 UX 기획 외에도 UI 설계도 함께 맡고 있다. 진님이 8퍼센트에서 하는 일을 좀 더 알고 싶다면 진님이 직접 쓰신 글을 읽어 보자.진님은 브런치에 글을 쓴다. 무려 나보다 5배나 많은 구독자를 가지고 계신 인기 작가(질투로 인해 표현이 좀 꼬인 것을 이해해 달라) 이시니 램프의 요정 GENIE의 브런치를 방문해 보시길 바란다. 직접 그린 그림과 함께 글을 쓰시기 때문에 브런치 메인의 웹툰 작가 리스트에서도 종종 찾을 수 있다. 때로는 긴 글 보다 한 장의 그림이 훨씬 더 많은 것들을 전달할 수 있음을 알기에 참 부러운 능력이다. 그러고 보니 진님의 추천으로 나도 개인 블로그에서 브런치로 넘어와서 재미있게 글을 쓰고 있으니 이 자리를 빌려 감사함을 표해야 하겠다. 진님의 구독자 수를 따라잡을 때까지 열심히 해보겠다.청순한(?) 외모도 갖고 있고 일에서는 완벽을 추구하지만 신은 역시 공평하다. 사람이 허술하다.그 누군가는 이렇게 말했다.처음에는 시크한 이미지여서 다가가기 어렵지만 조금만 지나면 이런 허술한 점들을 아주 손쉽게 발견할 수 있어서 사람들을 편하게 해주는 반전 매력이 있다.처음에 진님과 일을 했을 때에는 자신의 기획안에 대한 불안감과 일을 이끌어 나가는 것에 대한 부담감이 느껴졌다. 하지만 최근에는 그런 것들이 점점 느껴지지 않는다. 발전하고 있다는 증거다. 진님은 자신의 위치와 역할에 대해서 끊임없이 고민한다. 그 질문을 내게 던진다면 내가 만나본 유일한 UX 기획자이기에 진님이 UX 기획자로 어디쯤에 있는지 나는 잘 모르겠다고 답해야겠다. 하지만 지금처럼 치열하게 고민하고 노력한다면 내가 만난 최초의 UX 기획자가 최고의 UX 기획자로도 남을 것이라고는 확실히 말해줄 수 있겠다.진님의 인생사진으로 마무리!같이 일하는 동료에 대한 글을 쓰는 것은 쉽지 않다. 특히 조직도(회사 내에서 별 의미는 없지만)에서 상하 관계에 있는 사람에 대한 글을 쓰는 것은 꽤 부담스러운 일이다. 그래도 이 기회를 빌어 동료에 대한 고민을 깊게 해본다.#8퍼센트 #에잇퍼센트 #협업 #기획 #기획자 #UX기획 #팀워크 #팀플레이 #조직문화 #기업문화
조회수 929

역할 중심 문화의 탄생

"역할 중심 문화는 스타트업이라고 하기엔 나이가 많고 대기업이라고 하기엔 규모가 작은 에이스프로젝트를 위해 커스터마이징한 조직구조다"창립 5년 차 에이스프로젝트는 기존의 팀장 문화를 보완할 새로운 문화가 필요했다. 팀장 문화의 문제점을 해결하고 더 발전한 에이스프로젝트만의 조직문화를 만들기 위해 여러 사람이 고민했고 그래서 나온 것이 지금의 "역할 중심 문화"다. '팀장'은 없고 '역할'은 있는 구조로, 팀장이 가지고 있던 역할을 세분화한 뒤 세분화된 역할에 따라 권한과 책임을 부여한 일종의 '직책'문화다. 리더에게 시간을 주자맡은 역할에만 집중할 수 있는 조직구조한국 사회는 여유 있는 것보다 바쁜 것을 미덕으로 생각하는 경향이 있다. 팀장이 팀을 위해 열심히 일하는 것을 나쁘다고 할 수는 없지만 팀장이 지나치게 바쁘면 오히려 역효과가 생기기도 한다. 앞서 말했듯이 팀장이 바쁘면 팀원은 제 때 피드백을 받지 못하거나 받더라도 충분히 도움이 될 만큼 받지 못하는 일이 생긴다. 시간이 부족한 팀장이 어느 한 부분을 아예 포기해버리게 되기도 하는데 이런 일이 반복되면 부족한 부분을 견디지 못하고 이탈자가 나오기도 한다. '지나친 바쁨'의 문제를 해결하기 위해 하나로 뭉뚱그려져 있던 팀장의 역할을 쪼갠 것이 '역할' 중심 문화다. 기존의 팀장이 하던 여러 가지 역할 중 '특정한' 역할만을 맡은 직책자를 두는 것이다. 예를 들어 전에는 팀장 한 사람이 퀄리티 체크, 스케줄 관리, 팀원 면담 등 오만가지 일을 다 하고 있었다면 역할 중심 문화에서는 '퀄리티 체크'만을 중점적으로 하는 역할을 맡은 사람이 생기는 것이다. 이렇게 업무를 쪼개 자신이 맡은 부분만을 깊이 있게 관리하면 직책자는 과도한 업무 부담에서 벗어날 수 있고 팀원들은 조금 더 전문적이고 자세한 피드백을 받을 수 있다. 퀄리티 체크 이외의 부분은 다른 사람이 맡으면 된다.역할 중심 문화는 과도한 업무를 효율화해 리더가 팀원과 소통할 수 있는 시간을 마련할 수 있게 한다는 점에서도 의미를 갖는다. 팀장이 할 일과 고민이 지나치게 많으면 팀원에게 고민을 공유하는 일도 줄어든다. 이미 머릿속이 복잡한 데다 공유할 시간도 없기 때문이다. 팀원은 자신이 뭘 모르는지조차 모르기 때문에 알아야 하는 것을 몰라도 질문을 할 수가 없다. '바쁨'에서 시작된 정보의 불균형은 구성원들 간의 위계를 더 공고하게 한다. 잘할 수 있는 것을 잘하자리더도 장점을 살릴 수 있는 조직문화 에이스프로젝트는 개개인의 전문화를 중요하게 생각한다. 자기 분야의 스페셜리스트가 되는 것을 장려하고 관련된 교육도 아낌없이 지원한다. 기존의 팀장 문화에서도 팀원들에게는 이러한 가치관이 반영된 인사가 시행되었다. 하지만 정작 팀장은 팀장이기 때문에 장점, 단점과 상관없이 모든 일에서 성과를 내는 히어로가 되어야 했다. 뭐든지 다 잘하는 사람이 아주 간혹 있을 수도 있지만 리더도 사람이고 분명 적성과 재능에 더 맞는 영역과 그렇지 않은 영역이 있다. 역할 중심 문화는 리더도 각자의 장점을 극대화하고 역량을 전문화할 수 있게 했다. 스케줄 관리를 하는 역할, 작업물의 퀄리티를 높이는 역할, 팀원의 성장에 도움을 주는 역할, 회사의 조직문화에 적응할 수 있도록 이끌어주는 역할 등 자신에게 맞는 '역할'을 찾아 집중적으로 그 부분을 개발하는 것이다. 모두가 적극적으로 소통하는 문화자기 의견을 표현할 수 있는 회사 한국 교육환경은 모르는 것을 질문하거나 새로운 시각을 제시하기보다 주어진 것을 제대로 암기하는 데에 초점 이 가있다. 특히 윗사람에게 시시때때로 질문하거나 반론을 제기하는 것은 '말대답'으로 치부되는 경우가 많기 때문에 다른 생각을 갖고 있어도 쉽게 입 밖으로 꺼내지 않는다. 에이스프로젝트 구성원들 역시 비슷한 환경에서 자라왔고 대부분 '팀장=윗사람', '윗사람=반론 금지'인 가치관에 익숙해져 있던 터라 쉽게 의사소통을 하기가 어려웠다. 우리는 주니어도 적극적으로 의견을 내길 권장하고 무엇이든지 함께 고민하는 문화를 추구해왔지만 기존의 팀장 문화로는 한계가 있었다.커뮤니케이션 상의 위계와 소통 불능의 문제를 해결하기 위해서는 '익숙한' 문화가 아닌 우리에게 '맞는'문화를 찾아야 했다. 특히 에이스프로젝트가 원하는 방향의 문화를 만들어나가려면 조직의 '구조' 자체가 '문화'를 담을 수 있어야 했다. 역할 중심 문화는 이런 가치관을 반영해 입체적으로 만든 조직문화다. 권한과 책임을 분산시킴으로써 직책자의 발언에서 권위를 제거해 구성원들이 보다 솔직하게 피드백하고 토론할 수 있게 한 것이다. 역할 중심 문화에서는 리딩하는 역할과 실무자 간의 업무적 차등은 있더라도 생활과 커뮤니케이션 면에서는 모든 구성원의 발언이 평등할 수 있다.역할 중심 문화, 실제로는 어떻게 운영됐을까?3편에 계속.
조회수 1883

[직무] PO(Product Owner) : 미미박스 프로덕트 살림꾼 PO 직무 소개

안녕하세요. 미미박스의 소식을 전달하는 Ava입니다.오늘은 미미박스의 PO(Product Owner)는 어떤 업무를 하고 있는지 소개해드리려고 합니다!아직 당신이 만나지 못한 당신의 아름다움을 미미박스에서 만날 수 있도록, 상상과 협업을 통해 최고의 고객 경험을 만드는 미미박스의 PO(Product owner) !PO는 위에 말씀드렸듯 Product Owner의 약자입니다. Product는 미미박스 커머스 플랫폼, 안드로이드 앱, iOS 앱 등 미미박스가 제공하는 모든 서비스를 말하죠! PO는 미미박스 프로덕트의 오너로써 가장 근본적인 자리에서 '고객 경험'에 대한 고민을 하고 프로덕트를 만들어가고 있습니다. 이러한 업무를 하는 미미박스의 PO가 어떤 마음가짐을 가지고 있는지, 구체적으로 어떻게 일을 하는지 키워드와 함께 소개해드립니다. PO는 크게 두 가지를 계속 생각하는 일입니다.동시에 프로덕트를 매일 같이 살펴보고 버그가 있는지,고객 반응은 어떤지도 세심하게 살펴야 합니다. 즉, 프로덕트에 대한 목표를 설정하고, 회사 내의 협업을 이끌어 최고의 고객 경험을 만드는 프로덕트 살림꾼인 것이죠. 회사 전략에 따른 경영진의 요청, 고객의 소리, 내부 직원들의 피드백, 그리고 PO의 경험과 직관까지한 프로덕트는 수많은 목소리 가운데 있습니다. PO는 프로덕트가 지속적으로 성장할 수 있도록 이런 수많은 니즈의 우선순위를 설정하고 정의할 수 있어야 합니다. 우선순위가 정해졌다면 동료, 혹은 대표를 설득해서 끌고 나갈 수 있는 의지와 깊이가 있어야 합니다.PO는 조직의 협업을 이끄는 역할을 합니다. 크게 기술 조직과 영업조직을 연결하는 역할을 하죠. PO는 영업조직의 데이터, 정보, 전략을 받아 기술 조직에서 설계할 수 있도록 기획하고, 반대로 기술 조직에서 할 수 있는 것들을 파악하고 구현하여 영업조직 운영이 더 빠르게 될 수 있도록 기획합니다. PO는 혼자 아웃풋을 낼 수 있는 직무가 아닙니다. 프로덕트의 성장을 위해 영업, 프로모션, 디자인, 기술 등 다양한 조직과 끊임없이 커뮤니케이션해야 합니다. 우리는 왜 이걸 만들어야 하는지 설득과 토론을 통해서 전문가들이 유기체처럼 움직일 수 있도록 만들어야 하죠.  예를 들면 고객 경험을 개선하기 위해서 UX 디자이너와 커뮤니케이션을 통해 PO의 전략이나 콘셉트에 맞는 디자인을 스스로 고민하고 만들어 낼 수 있게 해야 합니다. 반대로 디자이너에게 미적인 감각을 요구하는 게 아니라 경청을 통해 실무자의 전략에 대한 의견이 얼마나 합리적인 지도 빠르게 이해할 수 있어야 합니다. 즉, 회사에 있는 전문성을 잘 융합해 최고의 고객 경험을 만드는 예술인 것이죠.미미박스의 PO는 파괴적 혁신과 기본적인 고객 경험, 이 두 가지 방향을 동시에 기획해야 합니다. 기본적으로 고객이 예측할만한 탄탄한 프로덕트를 구축할 수 있어야 합니다. 동시에, 기존 커머스와는 다른 파괴적 혁신을 품은 프로덕트를 기획해야 하죠.  이를 위해 기존의 프로덕트에 대해 계속 질문을 던져야 하고 개선, 혹은 혁신을 위한 위한 새로운 생각의 틀을 만들어가야 합니다.  현재 미미박스는 데이터를 통해 추천 경험을 강화할 계획을 가지고 있습니다. 자 여기서부터는 PO의 상상이 시작되는 것이죠PO는 어떤 팀에서 어떤 것을 구현할 수 있는지 파악하고 있어야 합니다. 미미박스의 PO인 Ryan은 풀스텍 개발자의 경력을 가지고 있으며, 타 커머스 업체에서도 일을 했었습니다.또한 프로덕트를 기획해본 경력이 있었죠. 이런 경력으로 테크팀에서 누가 뭘 구현할 수 있을지, 커머스에는 어떤 기능이 필요한지 빠르게 알 수 있습니다.즉, PO 직무를 하기 위해서는 기술적 배경지식(개발, 디자인 등)과웹&모바일 프로덕트 기획해본 경험이 있어야 합니다.두 번째는 커뮤니케이션 스킬입니다. 전략이나 콘셉트, 문제 등 추상적인 것을 정의하고,데이터를 기반으로 실무자들과 커뮤니케이션할 수 있어야 합니다.  마지막은 가장 중요한 건데요. 바로 문제 해결 의지입니다. PO는 스스로 목표와 전략을 설정하고 리드해야 하죠. 다양한 협업관계 속에서 깊이와 의지가 부족하다면 이것도 저것도 아닌 결과물이 나올 수 있어요. 그렇기 때문에 확고한 문제 해결 의지를 가지고 있어야 합니다. 다시 한번 미미박스를 살펴보세요. 당신의 상상을 펼칠 수 있는 부분이 보이나요?미미박스와 함께 게임체인저가 되어보세요!
조회수 1930

1 Personality Trait Steve Jobs Always Looked for When Hiring for Apple

애플의 초창기 시절부터, 스티브 잡스는 회사를 성공적으로 만들고 싶어했다. 한 때 애플은 회사 외부로부터 “전문적인” 경영자들을 데려왔었지만, 잡스는 곧바로 그들을 해고해 버렸다.“그들의 방식은 전혀 먹히지 않았습니다.” 유튜브에서 볼 수 있는 젊은 시절의 스티브 잡스가 한 말이다. “그들 중 대부분은 멍청이에요. 관리만 할 줄 알지 다른 건 아무것도 할 줄 모르죠.”잡스의 경영 방식을 다룬 이 비디오는 최근 Quartz at Work라는 웹사이트에 의해 재조명되었다. 비록 이 영상의 잡스는 아직 그의 상징인 검은 터틀넥을 입기 전이지만, 애플 창립자로써 그의 인사이트는 세월이 지났음에도 가치가 있는 것이다.전문 경영인들을 쓰지 않기로 선언한 이후, 잡스는 그간 경영자들에게 요구되지 않던 색다른 자질을 가진 사람을 찾기 시작했다. 그 자질은 바로 열정이었다.“우리가 바라는 사람들은 자신의 분야에서 미친듯이 뛰어난 사람입니다. 꼭 그들이 경험 많은 전문가들일 필요는 없죠. 다만 자기 분야에 대해 열정이 있고 최신기술에 대한 이해력, 그리고 그 기술들로 뭘 할 수 있을지를 알고만 있으면 되는 겁니다.”잡스는 화려한 이력서나 경력 같은 것들을 신경 쓰지 않았다. 열정 있고 문제를 해결할 능력만 있으면 됐던 것이었다. 전문 경영인을 해고한 그 자리에, 잡스는 경영과는 관계 없는 부서에서 일하던 Debi Coleman을 그 자리에 앉혔다. 그녀는 영문학을 전공한 32살의 경험 없는 직원이었다(우연히도, 영문학은 마크 큐번이 예상한 앞으로 가장 가치 있을 전공 중에 하나이다). 그리고 이러한 채용 방식은 통했다. 애플의 제조 담당자로 일하고 난 다음, Coleman은 불과 35살의 나이에 애플의 CFO가 되었다.잡스가 계속해서 설명하길, 뛰어난 직원일수록 ‘관리’ 해 줄 필요가 없다고 한다. 만약 그들이 열정 넘치고, 똑똑하고 동기가 충분하다면, 그들은 스스로를 ‘관리’ 할 수 있다는 것이다. 물론 그러기 위해선 직원들이 회사의 비전에 대해 완벽하게 이해하는 것이 필요하다.그때야말로, “관리” 라는 것이 역할을 할 때인 것이다. 직원들에게 일일이 할 일을 지시하는 대신에, 모두에게 비전을 명확하게 보여줘서 그들이 같은 목표를 향해 일할 수 있도록 만드는 것이야말로 진정한 리더십이라고 잡스는 믿고 있다.비디오의 후반부를 보면, 초기 애플의 직원들이 신입사원 면접을 맡아볼 때 지원자들의 열정을 확인하는 방법이 나온다. Andy Hertzfeld는, 애플 초창기부터 함께해 온 소프트웨어 엔지니어인데, 그가 말하길 그들 면접팀은 일부러 지원자들에게 매킨토시 프로토타입을 보여 준다고 한다. 그리고 그들이 어떻게 반응하는 지를 지켜본다는 것이다. 만약 지원자가 별다른 반응이 없다면, 그는 아마 채용될 가능성이 적을 것이다.“우리는 그들의 눈이 반짝반짝 빛나며 흥분하는 모습을 보고 싶은 거에요. 그제서야 ‘이 사람도 우리랑 같구나’ 라는 것을 알게 되니까요.”원문 : https://www.inc.com/betsy-mikel/to-hire-all-star-employees-steve-jobs-looked-for-1-non-negotiable-quality.html#더팀스 #THETEAMS #애플 #스티브잡스 #인사이트
조회수 3225

Attention is all you need paper 뽀개기

이번 포스팅에서는 포자랩스에서 핵심적으로 쓰고 있는 모델인 transformer의 논문을 요약하면서 추가적인 기법들도 설명드리겠습니다.Why?Long-term dependency problemsequence data를 처리하기 위해 이전까지 많이 쓰이던 model은 recurrent model이었습니다. recurrent model은 t번째에 대한 output을 만들기 위해, t번째 input과 t-1번째 hidden state를 이용했습니다. 이렇게 한다면 자연스럽게 문장의 순차적인 특성이 유지됩니다. 문장을 쓸 때 뒤의 단어부터 쓰지 않고 처음부터 차례차례 쓰는 것과 마찬가지인것입니다.하지만 recurrent model의 경우 많은 개선점이 있었음에도 long-term dependency에 취약하다는 단점이 있었습니다. 예를 들어, “저는 언어학을 좋아하고, 인공지능중에서도 딥러닝을 배우고 있고 자연어 처리에 관심이 많습니다.”라는 문장을 만드는 게 model의 task라고 해봅시다. 이때 ‘자연어’라는 단어를 만드는데 ‘언어학’이라는 단어는 중요한 단서입니다.그러나, 두 단어 사이의 거리가 가깝지 않으므로 model은 앞의 ‘언어학’이라는 단어를 이용해 자연어’라는 단어를 만들지 못하고, 언어학 보다 가까운 단어인 ‘딥러닝’을 보고 ‘이미지’를 만들 수도 있는 거죠. 이처럼, 어떤 정보와 다른 정보 사이의 거리가 멀 때 해당 정보를 이용하지 못하는 것이 long-term dependency problem입니다.recurrent model은 순차적인 특성이 유지되는 뛰어난 장점이 있었음에도, long-term dependency problem이라는 단점을 가지고 있었습니다.이와 달리 transformer는 recurrence를 사용하지 않고 대신 attention mechanism만을 사용해 input과 output의 dependency를 포착해냈습니다.Parallelizationrecurrent model은 학습 시, t번째 hidden state를 얻기 위해서 t-1번째 hidden state가 필요했습니다. 즉, 순서대로 계산될 필요가 있었습니다. 그래서 병렬 처리를 할 수 없었고 계산 속도가 느렸습니다.하지만 transformer에서는 학습 시 encoder에서는 각각의 position에 대해, 즉 각각의 단어에 대해 attention을 해주기만 하고, decoder에서는 masking 기법을 이용해 병렬 처리가 가능하게 됩니다. (masking이 어떤 것인지는 이후에 설명해 드리겠습니다)Model ArchitectureEncoder and Decoder structureencoder는 input sequence (x1,...,xn)<math>(x1,...,xn)</math>에 대해 다른 representation인 z=(z1,...,zn)<math>z=(z1,...,zn)</math>으로 바꿔줍니다.decoder는 z를 받아, output sequence (y1,...,yn)<math>(y1,...,yn)</math>를 하나씩 만들어냅니다.각각의 step에서 다음 symbol을 만들 때 이전에 만들어진 output(symbol)을 이용합니다. 예를 들어, “저는 사람입니다.”라는 문장에서 ‘사람입니다’를 만들 때, ‘저는’이라는 symbol을 이용하는 거죠. 이런 특성을 auto-regressive 하다고 합니다.Encoder and Decoder stacksEncoderN개의 동일한 layer로 구성돼 있습니다. input $x$가 첫 번째 layer에 들어가게 되고, layer(x)<math>layer(x)</math>가 다시 layer에 들어가는 식입니다.그리고 각각의 layer는 두 개의 sub-layer, multi-head self-attention mechanism과 position-wise fully connected feed-forward network를 가지고 있습니다.이때 두 개의 sub-layer에 residual connection을 이용합니다. residual connection은 input을 output으로 그대로 전달하는 것을 말합니다. 이때 sub-layer의 output dimension을 embedding dimension과 맞춰줍니다. x+Sublayer(x)<math>x+Sublayer(x)</math>를 하기 위해서, 즉 residual connection을 하기 위해서는 두 값의 차원을 맞춰줄 필요가 있습니다. 그 후에 layer normalization을 적용합니다.Decoder역시 N개의 동일한 layer로 이루어져 있습니다.encoder와 달리 encoder의 결과에 multi-head attention을 수행할 sub-layer를 추가합니다.마찬가지로 sub-layer에 residual connection을 사용한 뒤, layer normalization을 해줍니다.decoder에서는 encoder와 달리 순차적으로 결과를 만들어내야 하기 때문에, self-attention을 변형합니다. 바로 masking을 해주는 것이죠. masking을 통해, position i<math>i</math> 보다 이후에 있는 position에 attention을 주지 못하게 합니다. 즉, position i<math>i</math>에 대한 예측은 미리 알고 있는 output들에만 의존을 하는 것입니다.위의 예시를 보면, a를 예측할 때는 a이후에 있는 b,c에는 attention이 주어지지 않는 것입니다. 그리고 b를 예측할 때는 b이전에 있는 a만 attention이 주어질 수 있고 이후에 있는 c는 attention이 주어지지 않는 것이죠.Embeddings and Softmaxembedding 값을 고정시키지 않고, 학습을 하면서 embedding값이 변경되는 learned embedding을 사용했습니다. 이때 input과 output은 같은 embedding layer를 사용합니다.또한 decoder output을 다음 token의 확률로 바꾸기 위해 learned linear transformation과 softmax function을 사용했습니다. learned linear transformation을 사용했다는 것은 decoder output에 weight matrix W<math>W</math>를 곱해주는데, 이때 W<math>W</math>가 학습된다는 것입니다.Attentionattention은 단어의 의미처럼 특정 정보에 좀 더 주의를 기울이는 것입니다.예를 들어 model이 수행해야 하는 task가 번역이라고 해봅시다. source는 영어이고 target은 한국어입니다. “Hi, my name is poza.”라는 문장과 대응되는 “안녕, 내 이름은 포자야.”라는 문장이 있습니다. model이 이름은이라는 token을 decode할 때, source에서 가장 중요한 것은 name입니다.그렇다면, source의 모든 token이 비슷한 중요도를 갖기 보다는 name이 더 큰 중요도를 가지면 되겠죠. 이때, 더 큰 중요도를 갖게 만드는 방법이 바로 attention입니다.Scaled Dot-Product Attention해당 논문의 attention을 Scaled Dot-Product Attention이라고 부릅니다. 수식을 살펴보면 이렇게 부르는 이유를 알 수 있습니다.Attention(Q,K,V)=softmax(QKT√dk)V<math>Attention(Q,K,V)=softmax(QKTdk)V</math>먼저 input은 dk<math>dk</math> dimension의 query와 key들, dv<math>dv</math> dimension의 value들로 이루어져 있습니다.이때 모든 query와 key에 대한 dot-product를 계산하고 각각을 √dk<math>dk</math>로 나누어줍니다. dot-product를 하고 √dk<math>dk</math>로 scaling을 해주기 때문에 Scaled Dot-Product Attention인 것입니다. 그리고 여기에 softmax를 적용해 value들에 대한 weights를 얻어냅니다.key와 value는 attention이 이루어지는 위치에 상관없이 같은 값을 갖게 됩니다. 이때 query와 key에 대한 dot-product를 계산하면 각각의 query와 key 사이의 유사도를 구할 수 있게 됩니다. 흔히 들어본 cosine similarity는 dot-product에서 vector의 magnitude로 나눈 것입니다. √dk<math>dk</math>로 scaling을 해주는 이유는 dot-products의 값이 커질수록 softmax 함수에서 기울기의 변화가 거의 없는 부분으로 가기 때문입니다.softmax를 거친 값을 value에 곱해준다면, query와 유사한 value일수록, 즉 중요한 value일수록 더 높은 값을 가지게 됩니다. 중요한 정보에 더 관심을 둔다는 attention의 원리에 알맞은 것입니다.Multi-Head Attention위의 그림을 수식으로 나타내면 다음과 같습니다.MultiHead(Q,K,V)=Concat(head1,...,headh)WO<math>MultiHead(Q,K,V)=Concat(head1,...,headh)WO</math>where headi=Attention(QWQi,KWKi,VWVi)dmodel<math>dmodel</math> dimension의 key, value, query들로 하나의 attention을 수행하는 대신 key, value, query들에 각각 다른 학습된 linear projection을 h번 수행하는 게 더 좋다고 합니다. 즉, 동일한 Q,K,V<math>Q,K,V</math>에 각각 다른 weight matrix W<math>W</math>를 곱해주는 것이죠. 이때 parameter matrix는 WQi∈Rdmodelxdk,WKi∈Rdmodelxdk,WVi∈Rdmodelxdv,WOi∈Rhdvxdmodel<math>WiQ∈Rdmodelxdk,WiK∈Rdmodelxdk,WiV∈Rdmodelxdv,WiO∈Rhdvxdmodel</math>입니다.순서대로 query, key, value, output에 대한 parameter matrix입니다. projection이라고 하는 이유는 각각의 값들이 parameter matrix와 곱해졌을 때 dk,dv,dmodel<math>dk,dv,dmodel</math>차원으로 project되기 때문입니다. 논문에서는 dk=dv=dmodel/h<math>dk=dv=dmodel/h</math>를 사용했는데 꼭 dk<math>dk</math>와 dv<math>dv</math>가 같을 필요는 없습니다.이렇게 project된 key, value, query들은 병렬적으로 attention function을 거쳐 dv<math>dv</math>dimension output 값으로 나오게 됩니다.그 다음 여러 개의 head<math>head</math>를 concatenate하고 다시 projection을 수행합니다. 그래서 최종적인 dmodel<math>dmodel</math> dimension output 값이 나오게 되는거죠.각각의 과정에서 dimension을 표현하면 아래와 같습니다.*dQ,dK,dV<math>dQ,dK,dV</math>는 각각 query, key, value 개수Self-Attentionencoder self-attention layerkey, value, query들은 모두 encoder의 이전 layer의 output에서 옵니다. 따라서 이전 layer의 모든 position에 attention을 줄 수 있습니다. 만약 첫번째 layer라면 positional encoding이 더해진 input embedding이 됩니다.decoder self-attention layerencoder와 비슷하게 decoder에서도 self-attention을 줄 수 있습니다. 하지만 i<math>i</math>번째 output을 다시 i+1<math>i+1</math>번째 input으로 사용하는 auto-regressive한 특성을 유지하기 위해 , masking out된 scaled dot-product attention을 적용했습니다.masking out이 됐다는 것은 i<math>i</math>번째 position에 대한 attention을 얻을 때, i<math>i</math>번째 이후에 있는 모든 position은 Attention(Q,K,V)=softmax(QKT√dk)V<math>Attention(Q,K,V)=softmax(QKTdk)V</math>에서 softmax의 input 값을 −∞<math>−∞</math>로 설정한 것입니다. 이렇게 한다면, i<math>i</math>번째 이후에 있는 position에 attention을 주는 경우가 없겠죠.Encoder-Decoder Attention Layerquery들은 이전 decoder layer에서 오고 key와 value들은 encoder의 output에서 오게 됩니다. 그래서 decoder의 모든 position에서 input sequence 즉, encoder output의 모든 position에 attention을 줄 수 있게 됩니다.query가 decoder layer의 output인 이유는 query라는 것이 조건에 해당하기 때문입니다. 좀 더 풀어서 설명하면, ‘지금 decoder에서 이런 값이 나왔는데 무엇이 output이 돼야 할까?’가 query인 것이죠.이때 query는 이미 이전 layer에서 masking out됐으므로, i번째 position까지만 attention을 얻게 됩니다.이 같은 과정은 sequence-to-sequence의 전형적인 encoder-decoder mechanisms를 따라한 것입니다.*모든 position에서 attention을 줄 수 있다는 게 이해가 안되면 링크를 참고하시기 바랍니다.Position-wise Feed-Forward Networksencoder와 decoder의 각각의 layer는 아래와 같은 fully connected feed-forward network를 포함하고 있습니다.position 마다, 즉 개별 단어마다 적용되기 때문에 position-wise입니다. network는 두 번의 linear transformation과 activation function ReLU로 이루어져 있습니다.FFN(x)=max(0,xW1+b1)W2+b2x<math>x</math>에 linear transformation을 적용한 뒤, ReLU(max(0,z))<math>ReLU(max(0,z))</math>를 거쳐 다시 한번 linear transformation을 적용합니다.이때 각각의 position마다 같은 parameter W,b<math>W,b</math>를 사용하지만, layer가 달라지면 다른 parameter를 사용합니다.kernel size가 1이고 channel이 layer인 convolution을 두 번 수행한 것으로도 위 과정을 이해할 수 있습니다.Positional Encodingtransfomer는 recurrence도 아니고 convolution도 아니기 때문에, 단어의sequence를 이용하기 위해서는 단어의 position에 대한 정보를 추가해줄 필요가 있었습니다.그래서 encoder와 decoder의 input embedding에 positional encoding을 더해줬습니다.positional encoding은 dmodel<math>dmodel</math>(embedding 차원)과 같은 차원을 갖기 때문에 positional encoding vector와 embedding vector는 더해질 수 있습니다.논문에서는 다른 *frequency를 가지는 sine과 cosine 함수를 이용했습니다.*주어진 구간내에서 완료되는 cycle의 개수PE(pos,2i)=sin(pos/100002i/dmodel)<math>PE(pos,2i)=sin(pos/100002i/dmodel)</math>PE(pos,2i+1)=cos(pos/100002i/dmodel)<math>PE(pos,2i+1)=cos(pos/100002i/dmodel)</math>pos<math>pos</math>는 position ,i<math>i</math>는 dimension 이고 주기가 100002i/dmodel⋅2π<math>100002i/dmodel⋅2π</math>인 삼각 함수입니다. 즉, pos<math>pos</math>는 sequence에서 단어의 위치이고 해당 단어는 i<math>i</math>에 0부터 dmodel2<math>dmodel2</math>까지를 대입해 dmodel<math>dmodel</math>차원의 positional encoding vector를 얻게 됩니다. k=2i+1<math>k=2i+1</math>일 때는 cosine 함수를, k=2i<math>k=2i</math>일 때는 sine 함수를 이용합니다. 이렇게 positional encoding vector를 pos<math>pos</math>마다 구한다면 비록 같은 column이라고 할지라도 pos<math>pos</math>가 다르다면 다른 값을 가지게 됩니다. 즉, pos<math>pos</math>마다 다른 pos<math>pos</math>와 구분되는 positional encoding 값을 얻게 되는 것입니다.PEpos=[cos(pos/1),sin(pos/100002/dmodel),cos(pos/10000)2/dmodel,...,sin(pos/10000)]<math>PEpos=[cos(pos/1),sin(pos/100002/dmodel),cos(pos/10000)2/dmodel,...,sin(pos/10000)]</math>이때 PEpos+k<math>PEpos+k</math>는 PEpos<math>PEpos</math>의 linear function으로 나타낼 수 있습니다. 표기를 간단히 하기 위해 c=100002idmodel<math>c=100002idmodel</math>라고 해봅시다. sin(a+b)=sin(a)cos(b)+cos(a)sin(b)<math>sin(a+b)=sin(a)cos(b)+cos(a)sin(b)</math>이고 cos(a+b)=cos(a)cos(b)−sin(a)sin(b)<math>cos(a+b)=cos(a)cos(b)−sin(a)sin(b)</math> 이므로 다음이 성립합니다.PE(pos,2i)=sin(posc)<math>PE(pos,2i)=sin(posc)</math>PE(pos,2i+1)=cos(posc)<math>PE(pos,2i+1)=cos(posc)</math>PE(pos+k,2i)=sin(pos+kc)=sin(posc)cos(kc)+cos(posc)sin(kc)=PE(pos,2i)cos(kc)+cos(posc)sin(kc)<math>PE(pos+k,2i)=sin(pos+kc)=sin(posc)cos(kc)+cos(posc)sin(kc)=PE(pos,2i)cos(kc)+cos(posc)sin(kc)</math>PE(pos+k,2i+1)=cos(pos+kc)=cos(posc)cos(kc)−sin(posc)sin(kc)=PE(pos,2i+1)cos(kc)−sin(posc)sin(kc)<math>PE(pos+k,2i+1)=cos(pos+kc)=cos(posc)cos(kc)−sin(posc)sin(kc)=PE(pos,2i+1)cos(kc)−sin(posc)sin(kc)</math>이런 성질 때문에 model이 relative position에 의해 attention하는 것을 더 쉽게 배울 수 있습니다.논문에서는 학습된 positional embedding 대신 sinusoidal version을 선택했습니다. 만약 학습된 positional embedding을 사용할 경우 training보다 더 긴 sequence가 inference시에 입력으로 들어온다면 문제가 되지만 sinusoidal의 경우 constant하기 때문에 문제가 되지 않습니다. 그냥 좀 더 많은 값을 계산하기만 하면 되는거죠.Trainingtraining에 사용된 기법들을 알아보겠습니다.Optimizer많이 쓰이는 Adam optimizer를 사용했습니다.특이한 점은 learning rate를 training동안 고정시키지 않고 다음 식에 따라 변화시켰다는 것입니다.lrate=d−0.5model⋅min(step_num−0.5,step_num⋅warmup_steps−1.5)warmup_step<math>warmup_step</math>까지는 linear하게 learning rate를 증가시키다가, warmup_step<math>warmup_step</math> 이후에는 step_num<math>step_num</math>의 inverse square root에 비례하도록 감소시킵니다.이렇게 하는 이유는 처음에는 학습이 잘 되지 않은 상태이므로 learning rate를 빠르게 증가시켜 변화를 크게 주다가, 학습이 꽤 됐을 시점에 learning rate를 천천히 감소시켜 변화를 작게 주기 위해서입니다.RegularizationResidual ConnectionIdentity Mappings in Deep Residual Networks라는 논문에서 제시된 방법이고, 아래의 수식이 residual connection을 나타낸 것입니다.yl=h(xl)+F(xl,Wl)<math>yl=h(xl)+F(xl,Wl)</math>xl+1=f(yl)<math>xl+1=f(yl)</math>이때 h(xl)=xl<math>h(xl)=xl</math>입니다. 논문 제목에서 나온 것처럼 identity mapping을 해주는 것이죠.특정한 위치에서의 xL<math>xL</math>을 다음과 같이 xl<math>xl</math>과 residual 함수의 합으로 표시할 수 있습니다.x2=x1+F(x1,W1)<math>x2=x1+F(x1,W1)</math>x3=x2+F(x2,W2)=x1+F(x1,W1)+F(x2,W2)<math>x3=x2+F(x2,W2)=x1+F(x1,W1)+F(x2,W2)</math>xL=xl+L−1∑i=1F(xi,Wi)<math>xL=xl+∑i=1L−1F(xi,Wi)</math>그리고 미분을 한다면 다음과 같이 됩니다.σϵσxl=σϵσxLσxLσxl=σϵσxL(1+σσxlL−1∑i=1F(xi,Wi))<math>σϵσxl=σϵσxLσxLσxl=σϵσxL(1+σσxl∑i=1L−1F(xi,Wi))</math>이때, σϵσxL<math>σϵσxL</math>은 상위 layer의 gradient 값이 변하지 않고 그대로 하위 layer에 전달되는 것을 보여줍니다. 즉, layer를 거칠수록 gradient가 사라지는 vanishing gradient 문제를 완화해주는 것입니다.또한 forward path나 backward path를 간단하게 표현할 수 있게 됩니다.Layer NormalizationLayer Normalization이라는 논문에서 제시된 방법입니다.μl=1HH∑i=1ali<math>μl=1H∑i=1Hail</math>σl= ⎷1HH∑i=1(ali−μl)2<math>σl=1H∑i=1H(ail−μl)2</math>같은 layer에 있는 모든 hidden unit은 동일한 μ<math>μ</math>와 σ<math>σ</math>를 공유합니다.그리고 현재 input xt<math>xt</math>, 이전의 hidden state ht−1<math>ht−1</math>, at=Whhht−1+Wxhxt<math>at=Whhht−1+Wxhxt</math>, parameter g,b<math>g,b</math>가 있을 때 다음과 같이 normalization을 해줍니다.ht=f[gσt⊙(at−μt)+b]<math>ht=f[gσt⊙(at−μt)+b]</math>이렇게 한다면, gradient가 exploding하거나 vanishing하는 문제를 완화시키고 gradient 값이 안정적인 값을 가짐로 더 빨리 학습을 시킬 수 있습니다.(논문에서 recurrent를 기준으로 설명했으므로 이에 따랐습니다.)DropoutDropout: a simple way to prevent neural networks from overfitting라는 논문에서 제시된 방법입니다.dropout이라는 용어는 neural network에서 unit들을 dropout하는 것을 가리킵니다. 즉, 해당 unit을 network에서 일시적으로 제거하는 것입니다. 그래서 다른 unit과의 모든 connection이 사라지게 됩니다. 어떤 unit을 dropout할지는 random하게 정합니다.dropout은 training data에 overfitting되는 문제를 어느정도 막아줍니다. dropout된 unit들은 training되지 않는 것이니 training data에 값이 조정되지 않기 때문입니다.Label SmoothingRethinking the inception architecture for computer vision라는 논문에서 제시된 방법입니다.training동안 실제 정답인 label의 logit은 다른 logit보다 훨씬 큰 값을 갖게 됩니다. 이렇게 해서 model이 주어진 input x<math>x</math>에 대한 label y<math>y</math>를 맞추는 것이죠.하지만 이렇게 된다면 문제가 발생합니다. overfitting될 수도 있고 가장 큰 logit을 가지는 것과 나머지 사이의 차이를 점점 크게 만들어버립니다. 결국 model이 다른 data에 적응하는 능력을 감소시킵니다.model이 덜 confident하게 만들기 위해, label distribution q(k∣x)=δk,y<math>q(k∣x)=δk,y</math>를 (k가 y일 경우 1, 나머지는 0) 다음과 같이 대체할 수 있습니다.q′(k|x)=(1−ϵ)δk,y+ϵu(k)<math>q′(k|x)=(1−ϵ)δk,y+ϵu(k)</math>각각 label에 대한 분포 u(k)<math>u(k)</math>, smooting parameter ϵ<math>ϵ</math>입니다. 위와 같다면, k=y인 경우에도 model은 p(y∣x)=1<math>p(y∣x)=1</math>이 아니라 p(y∣x)=(1−ϵ)<math>p(y∣x)=(1−ϵ)</math>이 되겠죠. 100%의 확신이 아닌 그보다 덜한 확신을 하게 되는 것입니다.Conclusiontransformer는 recurrence를 이용하지 않고도 빠르고 정확하게 sequential data를 처리할 수 있는 model로 제시되었습니다.여러가지 기법이 사용됐지만, 가장 핵심적인 것은 encoder와 decoder에서 attention을 통해 query와 가장 밀접한 연관성을 가지는 value를 강조할 수 있고 병렬화가 가능해진 것입니다.Referencehttp://www.whydsp.org/280http://mlexplained.com/2017/12/29/attention-is-all-you-need-explained/http://openresearch.ai/t/identity-mappings-in-deep-residual-networks/47https://m.blog.naver.com/PostView.nhn?blogId=laonple&logNo=220793640991&proxyReferer=https://www.google.co.kr/https://www.researchgate.net/figure/Sample-of-a-feed-forward-neural-network_fig1_234055177https://arxiv.org/abs/1603.05027https://arxiv.org/abs/1607.06450http://jmlr.org/papers/volume15/srivastava14a.old/srivastava14a.pdfhttps://arxiv.org/pdf/1512.00567.pdf
조회수 1180

하드웨어 스타트업의 딜레마 (5)

Prototype을 끝내고 금형을 제작하고 양산을 결정하였다면 이제 정말 어려운 문제가 하나 남아있다. 여기까지 오면서도 많은 딜레마적인 상황에 봉착했지만, 마지막 질문은 그 어느 때보다 더 큰 리스크가 존재하는 질문이다. 이번 장에서는 그 이야기를 해보려고 한다. 도대체 얼마나 생산해야 하는가이다.이 질문에 답을 내는 것은 정말 어렵고, 자칫 오답을 내면 회사의 큰 위험을 가져올 수 있다. 특히 자본이 충분치 않은 스타트업에게는 한 번의 오답으로 회사를 문을 닫아야 한느 상황이 올 수 있다. 이건 스타트업이 아니더라도 중소/중견 기업 심지어 대기업들도 수요 예측을 잘 못해서 많은 재고를 쌓아 놓고 결국 그 재고 처리로 인해서 큰 어려움을 겪는 일은 심심치 않게 볼 수 있는 일이다. 또한 반대로 너무 적게 생산해서 시장의 기회를 놓쳐 버리는 경우도 있다.그럼 '최소한으로 생산하면 될 것 아닌가?'라는 당연한 질문을 할 수 있다. 그런데 이러한 답을 내는 것도 쉽지 않다. 여기에 제조 원가의 이슈가 존재한다. 제조 원가는 생산량에 반비례하기 때문이다. 예를 들어서 1,000대를 생산하는 제조 원가 $50이라면 50,000대를 생산하는 제조원가는 $20 이하로 떨어질 수 도 있기 때문이다. 그럼 비싸게 생산하면 뭐가 문제일까라는 질문도 있을 수 있다. 결국 비싸게 생산하면 비싸게 팔아야 한다. 손해를 보고 팔 수는 없기 때문이다. 비싸게 판다면 결국 가격에 대한 허들 때문에 소비자의 접근성이 현저히 떨어진다. 예를 들어 만약 $50이 제조 원가라면 유통마진, 워런티, 운송비, 영업비용 등을 고려한다면 소비자 가격은 $150~$250이 되어야 최소한의 이익을 확보할 수 있다. $20에 만든다면 소비자 가격은 $60 ~ $100에 맞출 수 있다. $60 제품을 파는 것과 $150의 제품을 파는 것 어느 것이 더 쉬울까? 답은 명확하다. 싸게 만들면 더 쉽게 소비자에게 접근할 수 있다. 하지만 여기에는 대가가 따른다. 재무적 리스크이다. 과연 어느 스타트업이 대량 생산에 대한 리스크를 짊어질 수 있을까? 쉽지 않은 결정이고 그에 대한 돈을 마련하는 것은 더더욱 어렵다.그래서 최근에 많이 시도하는 것이 킥스타터, 인디고고와 같은 크라우드펀딩 platform이다. 간단히 말해서 양산을 하기 전에 주문을 받고 돈을 받는 것이다. 양산을 하기 전에 수요예측을 그것도 펀딩을 받으면서 할 수 있다는 엄청난 장점을 가지고 있다. 그리고 크라우드 펀딩을 통해서 Pre-marketing을 할 수 있기 때문에 최근에 많은 하드웨어 스타트업들에게는 필수적인 관문이 되고 있다. 개인적으로 크라우드 펀딩을 시도하는 것은 '얼마나 생산해야 하는 것인가?"에 대한 질문을 답하는데 아주 좋은 플랫폼이라고 생각한다. 하지만 단점과 한계점도 존재한다. 최근 많은 하드웨어 스타트업들이 크라우드 펀딩을 시도를 하면서 그 안에서 주목을 받고 펀딩을 성공시키기 위한 노력과 비용이 올라가고 있다. 또한 물건이 나오기도 전에 사는 방식이기 때문에 그러한 방식에 대해서 신뢰를 하고 돈을 지불하는 고객들은 상당히 얼리어답터 적인 성향을 가지고 있고 많지 않다. 흔히 크라우드 펀딩에 참여하는 고객층은 테크를 좋아하고 어느 정도 구매력을 갖춘 30~40대 백인 남성이라는 이야기가 나온다. 그렇기 때문에 이러한 타겟층이 좋아하지 않는 제품에 대해서는 이슈를 만들기 어렵고, 또한 이슈를 만들었다고 하더라도 매스 마켓에서의 성공을 담보로 하지는 않는다. 반대로 실패했다고 꼭 매스마켓에서 실패한다고 볼 수는 없다. 어쨌든 한정적인 시장에서의 성공과 실패로 모든 것을 판단하는 것은 옳지는 않지만 시장의 수요 예측을 위한 중요한 바로미터가 될 수 있기 때문에 하드웨어 스타트업들에게 꼭 권하고 싶은 방법이다.'얼마나 생산할 것인가?"라는 상당한 전략적 판단을 요하는 질문이다. 수요에 대한 확신이 있다면 어떻게 해서든 펀딩을 끌고 와서 대량 생산체제를 통해서 가격을 낮추고 이익을 극대화하는 것이 최선이 방법이고, 그렇지 않다면 최소한의 물량을 생산하고 손해가 나지 않을 정도로 가격을 설정하거나 때로는 손해가 나더라도 수요를 검증할 수 있을 정도의 가격으로 제품을 판매하고 향후 대량 생산하는 것도 방법이다. 개인적으로 리스크를 헤징해야 하는 스타트업에게는 후자가 더 맞다고 생각하지만, 무엇이 더 맞을지는 결국 CEO의 전략적 판단이다. 정답은 없다. 결국 우리는 불확실한 정보를 가지고 알 수 없는 결과를 기대하면서 선택하는 것이다. 그것이 스타트업 CEO가 겪어야 할 딜레마이다.#NEOFECT #스타트업 #딜레마 #고민 #스타트업창업 #인사이트 #조언 #스타트업CEO #CEO #선택
조회수 1387

벨류커미티 (Value Committee) 를 소개합니다!

안녕하세요. 비투링크의 소식을 전하는 미나 입니다 :)오늘은 야심차게 준비한 "[비.사.세] 비투링커가 사는 세상" 코너를 소개하고자 합니다!비투링크 내부에서는 어떤 사람들이 모여, 어떤 가치를 가지고 일하는지.또 어떤 재미있는 사내 문화가 있는지 등등비투링커들의 일거수 일투족을 쏙쏙 집어 공유해드립니다 ^_^그 첫번째 주인공으로, 비투링크 벨류커미티 (Value Committee) 1기를 소개합니다 :)여기서 벨류커미티는 뭐지? 하실 분들을 위해▼▼ ! 간단한 소개 드려요오! ▼▼회사 조직 규모가 커짐에 따라 많은 팀과의 커뮤니케이션을 필요로 하고,그에 따른 각종 이슈들이 발생합니다. 저희 비투링크는 이를 해결하기 위해,비투링커 모두가 함께 우리만의 문화를 만들어 나가기 위해 '벨류커미티' 프로젝트를 시작했습니다.비투링크의 주인은 비투링커!벨류커미티는, 현재의 조직문화 관련하여 비투링크답지 않은 모습을 발견하고, 창의적이고 급진적인 해결방법을 통해 비투링크다운 모습으로 복원하는 역할을 합니다!비투링크 벨류커미티 (Value Committee) 1기 멤버들 ♥지난 해 9월, 직원들의 자발적인 참여로 시작된 벨류커미티 1기 멤버 선정!전 직원의 80%가 자발적으로 참여했고, 각자 어떤 비전을 가지고 있는지포부를 밝히는 선거운동까지 진행했습니다.그렇게 5명의 임원이 선발 되었습니다 :-)매주 수요일 7시 30분, 비투링크만의 문화를 만들기 위해 고민하는 벨류커미티 멤버들!어느 수요일 저녁... 벨류커미티 회의실에 제가 잠시 침입했습니다 ㅋㅋ벨류커미티 멤버 CS 님: "첫 회의를 진행하면서, 정말 많은 아이디어가 쏟아져 나왔어요.그 과정에서 진짜 우리가 되고 싶은게 무엇인지에 대한 고민을 가장 많이 했습니다.문제해결에 가장 중요한 것은 이상향을 그리는 것이라고 생각했거든요."그리고 가장 중요한 다섯가지를 생각해봤습니다.그렇게 탄생한 비투링커라면 매일 고민해야 하는 5가지 행동 (Code of Conduct) !!!▼▼ 비투링커들의 5가지 행동강령 (Code of Conduct) 란? ▼▼우리는 다음 5가지 사항을 비투링커의 최우선과제로 삼고, 매일 조금씩 발전하고 있습니다 :)매주 금요일, 지난 일주일동안 아래 5가지 행동에 대해 고민하고 사례를 공유합니다!(1) 크고 담대한 꿈을 갖는다.(2) 주도적인 태도로 집요하게 집착한다.(3) 나와 내 팀이 아닌 모든 비투링커의 성공을 위한 의사결정을 한다.(4) 실수는 실수를 통해서 그 이상을 배울 수 있는 경우에만 허용된다.(5) 함께 일하고 싶은 역량을 가진 동료가 된다.비투링크 강남 오피스에 들어가면 한 눈에 볼 수 있다죠!비투링크 사무실에 들어서면 !!5가지 Code of Conduct @ 비투링크오피스를 쭉 돌아다니다보면, 비투링커들의 성장스토리를 공유하는 게시판이 있는데요!각자 비투링커로써 고민했던 위 다섯가지 행동강령에 대한 스토리를 공유합니다.짜잔 ~* ~*비투링크 성장노트를 공유하는 게시판! :)꼭 업무에 관한 내용이 아니어도 좋아요 ^_^내용은 꼭 업무에 관한 내용이 아니어도 좋답니다!오른쪽 이미지 처럼, 업무 중 감정이 상했지만, 함께 일하고싶은 역량을 가진 동료가 되기위해같이 점심을 먹으면서 풀기로 했다는 귀여운 내용도 좋습니다 :)누구라고 밝힐 순 없지만...."함께 일하고싶은 역량을 가진 동료가 되기 위해오늘 아재개그를 해서 옆자리 팀원을 즐겁게 해줬다." 라는 이야기도 들었..ㅋㅋㅋ내용보다는, 위 행동강령에 대해 매일 고민해보는 시간을 가지는게더 중요하다고 생각해요 :)그런 의미에서 비투링커들 짝짝짝 수고수고 멋쪄부러 !!벨류커미티 프로젝트는 계속 됩니다!TO BE CONTINUED....또 어떤 이벤트가 있는지는 다음 포스팅에 공유할게요! :)#비투링크 #사내문화 #기업문화 #조직문화 #팀소개 #기업소개 #경험공유
조회수 1863

“내 커리어가 두 계단씩 뛰어오르는 자리” 

데이터는 성과를 측정하는 데 빠질 수 없을 만큼 요소이자 주장에 힘을 실어 주는 객관적인 근거입니다. 이 말에 동의하시는 분들이라면 퍼포먼스 마케팅의 중요성을 이미 잘 알고 계실 것 같은데요. 패스트캠퍼스처럼 데이터 기반으로 성과를 분석하는 온라인 마케팅을 진행하는 곳일수록 퍼포먼스 마케터는 마케팅과 매출 최전방에서 중책을 담당하고 있습니다. 이번 글에서는 패스트캠퍼스 퍼포먼스 마케터 김지한님, 한누리님을 모시고 업무에 대한 자세한 이야기를 들어 보았습니다. 안녕하세요 누리님 지한님, 우선 간단하게 자기소개 부탁드리겠습니다.저는 파이낸스 팀에서 퍼포먼스 마케팅을 맡은 한누리입니다. 패스트캠퍼스에서 일한 지 1년 조금 넘었네요.  저는 입사한 지 이제 8개월이 된 김지한입니다. 데이터 사이언스와 크리에이티브 팀 퍼포먼스 마케팅을 담당하고 있습니다. 두 분께서는 패스트캠퍼스에 합류하기 전에 어떤 일을 하셨는지, 어떤 계기로 패스트캠퍼스 퍼포먼스 마케터로 입사하게 되셨는지 궁금합니다. 저는 뷰티 커머스 스타트업에서 2년 조금 되지 않는 기간 동안 다양한 업무를 진행했습니다. 우리 회사로 치면 콘텐츠 마케팅에 가까운 일들을 주로 했었어요. 콘텐츠 만드는 일만으로도 너무 바빠 성과를 제대로 볼 여유가 없어서 아쉬웠는데, 그러다 패스트캠퍼스에서 마케팅 유치원 강의를 들었고요. 내용이 괜찮기에 다른 강의 더 없나 찾아보다 마침 올라와 있던 채용공고를 봤고, 지원서를 넣었는데 합격했어요. 저는 우리 회사의 전일제 교육 과정인 디지털 마케팅 스쿨 출신입니다. 그 전에는 통신유통 쪽 회사에서 4년 동안 일했어요. 원래 경영학과 출신이고 마케팅 분야에 관심이 있었는데, 졸업하고 남들처럼 이름있는 회사에 가려고 노력하다 보니 원하는 직무와 조금 동떨어진 일을 했죠. 온라인 웹페이지 등이 없는 곳이어서 분석 데이터가 크게 유의미하지 않은 업종이기도 했고요.하지만 어느 분야에서건 사업이 성장하려면 온라인 분야 진출이 필수라고 생각했었기에 디지털 마케팅 공부를 시작하게 되었고, 퇴사를 결심한 후 디지털 마케팅 스쿨을 수강했죠. 과정을 수료하고 패스트캠퍼스에서 퍼포먼스 마케터로 일하게 되었고요.지한님께서는 대기업에 계시다 직무를 바꾸시면서 스타트업인 패스트캠퍼스에 입사하신 거네요. 이곳을 선택하신 이유는 무엇인가요? 예전 회사는 복지나 급여가 만족스러웠지만 회사를 다니며 자부심을 느끼기 쉽지 않았어요. 회사가 추구하는 가치, 브랜드 슬로건이 저에겐 중요하더라고요. 퇴사를 고민하며 직무 변경은 물론 스스로 자부심을 가질 수 있는 가치를 공유하는 회사로 가자고 마음먹었는데 패스트캠퍼스가 말하는 ‘인생을 바꾸는 교육’이 눈에 띄었어요. 저 자신이 디지털 마케팅 스쿨을 수료하며 경험하기도 한 성인 직무 교육의 가치에 공감해 패스트캠퍼스에 지원서를 넣었습니다. 패스트캠퍼스 퍼포먼스 마케터는 어떤 일을 하나요? 하루를 어떻게 보내시는지 궁금합니다. 퍼포먼스 마케터의 하루는 다른 포지션을 담당하는 분들보다 빠르게 시작됩니다. 아침 여덟 시쯤 출근해 전날 실적, 홍보비 현황 등의 데이터를 정리해요. 이 데이터를 통해 어떤 부분의 성과가 부진한지 볼 수 있죠. 이를 바탕으로 트러블 슈팅을 진행해 상세페이지, 광고 크리에이티브, 광고 채널 들을 점검하고 우리가 취해야 할 액션들을 정리 및 실행하죠. 데이터 가공, 결과 도출, 문제점 파악, 실행 방안 구상 및 액션. 여기까지가 고정적인 하루 스케줄입니다.중간중간 비는 시간에는 홍보 예정인 강의들의 과거 성과를 분석해 코스 리포트 회의를 진행할 때 활용할 자료를 만들고요. 아, 출근 시간이 이른 만큼 퇴근 시간도 빨라서 업무상 이슈가 없는 날에는 눈치 보지 않고 다른 분들보다 일찍 퇴근합니다.지한님이 말씀하신 트러블 슈팅에 대해 조금 더 이야기 드릴게요. 전날 데이터를 대시보드에 기재하고 현황을 파악한 다음 우리가 지출한 광고비 대비 효율은 어떤지, 마케팅 진행은 결제 대비 어떤 상황인지를 기준으로 퍼널의 문제를 찾아요. 고객분들이 적게 유입되는지, 결제까지 이어지지 않는지, 광고 클릭률이 낮은지 등 문제를 팀 전체에 공유하고 그걸 해결하기 위해 콘텐츠 마케터, 프로덕트 매니저 분들과 회의를 진행하는 거죠.강의 홍보 기간이 보통 한 달 정도인데, 그 기간에 휴일이 많다거나 강의 가격이 부담스럽다거나. 마케팅 차원에서 어찌할 수 없는 외부 요소가 가장 큰 문제일 수도 있어요. 하지만 우리 업무의 핵심은 최대한 빨리 그 상황을 타파할 수 있는 액션을 찾아 ‘당일 바로 실행’ 하는 겁니다. 퍼널상 발견되는 문제들에 대한 모든 개선, 수단과 방법에 대해 고민하고 해결방안 제안하는 게 우리 일이죠. 숫자에 기반을 둔 명확한 근거를 바탕으로! 패스트캠퍼스 퍼포먼스 마케터 직무, 입사 전 생각했던 것과 실무를 진행하는 것에는 어떤 차이가 있을까요?오프라인에서의 마케팅, 유통에 대한 성과 측정이 어려운 건 이전 직장에서 이미 경험해 알고 있었어요. 그런데 온라인 쪽 퍼포먼스 측정도 힘든 점이 있더라고요. 퍼널을 분석하기 위해 저희가 가공해야 하는 데이터가 생각 이상으로 많아요.퍼포먼스 마케팅이라고 하면 깔끔한 대시보드가 있고, 버튼 클릭 한 번으로 데이터를 쉽게 확인할 수 있는 것을 떠올리는 분들이 많을 텐데, 그 대시보드를 만들기 위해 데이터를 가공하고 클렌징하는 게 손이 많이 가는 일이에요. 데이터 팀이 따로 없기 때문에 데이터를 정리하는 작업까지 저희가 진행하는 건 생각했던 것과 다른 부분이죠. 규모가 무척 크지 않은 이상, 웬만한 회사는 저희와 비슷한 상황일 거예요. 시간이 많이 드는 단순 업무가 많이 있어 지루하게 느껴질 수 있어요. 그래서 목적의식 없이 일하다 보면 단순 작업으로만 느껴질 수 있는 일이예요. 정형화된 데이터, 숫자를 확인하는 게 반복되는 일로만 느껴질 수도 있고요. 그렇기에 문제점을 해결하기 위해 한 발짝 더 노력하려는 의지가 필요한 직무입니다. 생각 이상으로 데이터 정리 및 가공에 드는 시간이 많아서, 분석적인 업무를 할 때 시간에 쫓기는 경우도 있을 겁니다. 퍼포먼스 마케팅은 숫자를 다루는 일이니만큼 진입 장벽이 높을 것 같기도 해요. 어떤 분에게 퍼포먼스 마케터 직무가 잘 맞을지, 어떤 분을 동료로 맞이하고 싶으신지 궁금합니다. 엑셀이 익숙하고 숫자를 잘 다룬다면 당연히 좋죠. 하지만 퍼포먼스 마케터에게 그것보다 더욱 필요한 덕목은 커뮤니케이션 능력이라고 생각합니다. 퍼포먼스 마케터는 데이터를 기반으로 논리적인 사고를 펼쳐 관련 업무를 진행하는 분들을 설득할 수 있어야 하니까요. 엑셀이나 구글 스프레드시트 같은 스킬셋은 배우면서 일하면 됩니다. 퍼포먼스 마케터라지만 신입 중에서 숫자와 친한 사람은 정말 드물기도 하고요. 중요한 건 자기 생각을 논리적으로 말할 수 있고, 설득을 할 때 자기 논리만 펼치는 게 아니라 원활하게 커뮤니케이션을 할 수 있는지 여부인 것 같아요. 맞아요. 데이터 추출은 스킬에 가까운 만큼 배워 가며 업무를 진행하면 되니까 큰 문제가 없어요. 지한님 말씀에 조금 덧붙이자면, 인과관계를 잘 파악하는 사람이면 업무가 잘 맞을 것 같습니다. 문제를 객관적으로 볼 수 있어야 하고, 합리적인 대안까지 제안할 수 있어야 해요. 문제만 던지는 건 해결책이 아니잖아요. 다른 동료들의 직무를 충분히 이해하고, 다양한 상황에서 팀원들이 납득할 만한 제안을 할 수 있으면 됩니다. 패스트캠퍼스에서 퍼포먼스 마케터로 일하며 가장 힘든 점은 무엇인지 솔직한 말씀 부탁드립니다. 앞서 말씀드린 데이터 정제 작업에 생각 이상으로 시간이 많이 들어가는 게 가장 힘들어요. 회사가 계속 성장하고 있는 만큼 데이터 양도 늘다 보니, 저희에게 필요한 데이터를 골라 보기 위해 생각 이상으로 많은 가공 과정을 거쳐야 할 때가 있어요. 회사 차원에서도 인력 충원이나 기술 도입 등으로 해결하려 노력 중이지만요. 덧붙이자면, 스타트업의 장점 중 하나가 다양한 것들을 시도해볼 수 있고 시도에 대한 결과가 빠르게 눈에 보이는 것일 텐데요. 이건 누구라도 내가 맡고 있는 직무 내의 업무만 진행할 수는 없다는 이야기이기도 해요. 퍼포먼스 마케팅만 하고 싶은 분이라면 우리 회사가 맞지 않을 수도 있어요. 이런저런 고민이 생기는 직무임에도 불구하고, 이 일을 계속하게 만드는 원동력은 무엇인가요? 여러 가지 업무를 함께 진행한다는 건 단점일 수 있지만, 저에겐 장점도 되는 것 같아요. 저는 퍼포먼스 마케팅 외에 제휴마케팅에도 관심이 있어서 그쪽으로도 이런저런 도전을 해보고 있어요. 주어진 매뉴얼이 있어야 업무를 잘할 수 있는 분에게라면 맞지 않겠지만, 매뉴얼을 나 스스로 만들어가는 걸 즐길 수 있다면 일이 잘 맞을 거예요. 이런 스타트업 문화가 좋아 대기업에서 스타트업으로 이직하시는 분들도 있으니까요. 대기업에서는 한정적인 업무를 맡는 경우가 많은데 여긴 자유도가 높아요. 반대로 말하자면 내 의지와 상관없이 들어올 수 있는 업무도 있다는 건데, 그걸 즐길 수 있는 사람이라면 베스트죠. 패스트캠퍼스는 내가 하고 싶은 일에 자유롭게 도전할 수 있는 분위기가 있어요. 시간에 쫓길 때도 많지만, 마케팅 트렌드를 따라가는 회사라 마케터로 일을 하며 자기발전 하기에도 좋고요. 마지막으로, 두 분께 패스트캠퍼스란 어떤 곳일까요? 레벨업하기에 좋은 곳. 진행하고 싶은 업무를 합리적인 근거와 간단한 보고 체계만 거치면 바로 시작할 수 있어요. 업무 진행에 대해 실시간으로 피드백할 수 있고요. 같이 성장할 수 있는 회사라 생각합니다. 패스트캠퍼스는 교육 회사잖아요. 그래서인지 일을 하며 자연스레 제가 담당하는 카테고리의 지식을 많이 얻어요. 시야도 넓어지고요.조금 오글거리지만 우리 인생을 계단 올라가는 것에 비유한다면, 가끔 계단을 빨리 올라가고 싶을 때는 두 개씩 성큼성큼 오르잖아요. 패스트캠퍼스가 바로 그런 곳이에요. 힘들고 숨찬 하루하루지만 다른 곳보다 빠르게 커리어를 성장시킬 수 있는 곳이에요. * 패스트캠퍼스 퍼포먼스 마케터는? *페이스북, 구글애드워즈, 인스타그램, 네이버 등의 채널을 운영하고 다양한 채널을 조사·활용해 성과를 개선하는 일을 합니다. 패스트캠퍼스의 각 카테고리별로 운영하는 마케팅 캠페인들의 홍보 데이터를 매일 분석하고 프로세스를 최적화하며 주요 지표를 리포트하고, 온 ·오프라인 구분 없이 신규 마케팅 채널을 발굴합니다. 온라인 마케팅 지표들을 기반으로 마케팅 캠페인의 문제점과 개선점을 도출할 수 있는 논리력과 분석력을 지닌 분을 환영합니다.

기업문화 엿볼 때, 더팀스

로그인

/