스토리 홈

인터뷰

피드

뉴스

조회수 810

챌린저스의 원칙

오늘은 챌린저스 서비스의 운영 원칙에 대한 이야기를 하려고 합니다.소통을 통해 더 나은 방향으로 나아가기 위한 목적과 함께, 초심을 잊지 않고 운영하려는 생각으로 글을 남깁니다.챌린저스는 모두가 자신이 원하는 모습으로 나아갈 수 있도록 도와, 더 나은 세상을 만듭니다.챌린저스는 모든 사람들이 도전하며 성장할 수 있는 최적의 환경을 제공하겠습니다.                  1. 도전을 쉽게: 도전의 문턱을 낮춘다- 쉬운 시도 : 도전은 거창한 것이여만 한다는 인식을 바꾼다. 도전은 한 발자국 나아가는 것이고, 도전 자체가 성장임을 각인시킨다.        · 챌린저스는 도전이 쉬운 것임을 인식시킨다 - 작은 성공 : 도전을 작게 만든다. 그래서 누구나 쉽게 성공할 수 있게 한다. 그리고 성공을 반복하고, 큰 일을 이루게 한다.        · 챌린저스는 달성가능한 도전을 제공한다. 도전을 짧게 만들어서, 쉽게 만든다        · 챌린저스는 작은 성공을 반복함으로써, 오랫동안 반복해서 도전하게 한다- 과정 중시 : 결과만 중요한 것이 아니라, 과정을 즐기게 한다.        · 챌린저스는 도전하는 모든 사람을 승자로 인식한다2. 도전을 즐겁게: 도전을 위한 최적의 환경을 제공한다. 도전을 시작하게 하는 건 의지지만, 도전을 계속 즐기게 만드는 건 환경이기 때문이다.- 높은 성취 : 같은 의지로 훨씬 더 많이 성취하게 한다. 성취감은 깊은 즐거움의 원천이기 때문이다.        · 챌린저스는 돈을 걸어 환경을 변화시킴으로써 같은 의지로도 더 많은 것을 달성하게 한다.- 즉시 보상 : 눈에 보이는 단기적인 보상을 제공한다.        · 챌린저스는 고객들에게 상금, 상장, 기록 등을 제공해서 뿌뜻함을 느낄 수 있게 한다.        · 챌린저스는 도전 기록을 잘 보존하며, 분석을 통해 더 도움을 준다.- 함께 도전 : 혼자해서 외롭지 않도록, 즐겁게 함께할 동료를 연결시킨다.        · 챌린저스는 고객들에게 함께 도전을 할 사람들을 연결시켜준다       3. 도전을 의미있게: 맞춤형으로 도전을 제공한다- 가능성 : 모든 한계는 도전으로 극복된다. 사람들의 가능성을 믿는다        · 챌린저스는 반단계 더 높은 도전을 권유한다- 다양성 : 모든 도전은 가치있다. 남들의 도전이 아닌 자신만의 도전을 하도록 돕는다        · 챌린저스는 다양한 주제의 도전을 소개한다- 목적성 : 막연하게 도움이 된다고 하는 것이 아닌, 진짜 필요한 도전을 제시한다        · 챌린저스는 원하는 삶에 도움이 되는 진짜 도전을 제시한다챌린저스, 확실한 목표달성 꾸준한 습관형성 앱www.chlngers.com
조회수 1558

아마존 유럽 - VAT 시리즈 (5)

★08★Q. 대한민국에 설립한 사업자인데 왜 타 국가의 부가세 (VAT)를 내야 하나요A: VAT 법이 적용되는 국가에 판매하려고 하시는 것이기 때문입니다.이 질문을 하시는 분들은 미국에서 주로 판매활동을 하는 분들이 많습니다. 미국에서 판매활동을 해도 대한민국 사업자 (미국에서 바라보는 기준에서는 해외 사업자)이면 납세 의무가 없기 때문입니다. 미국에서는 크게 봐서 두 가지 세금이 있는데, (1) Sales Tax - 소비세와 (2) Income Tax - 소득세입니다. 소비세는 주 (State) 단위로 청구하며, 제품을 구매하는 고객이 지불하는 게 통상적이고, 주마다 소비세는 다른데 어떤 요율이 적용되는지는 수취 주소의 '주'입니다. 좀 더 나아가서 설명드리자면, '주' 단위로 청구하는 게 소비세이기 때문에 VAT 법을 적용하는 국가들처럼 화물이 도착국에 도착하는 순간에 '수입 부가세'라는 개념이 적용되지 않습니다. 한국을 포함한 VAT 법이 적용되는 국가는 화물이 도착국에 입국하는 시점에 '국가'단위로 수입 부가세부터 적용하게 되는데, 미국의 경우에는 제품이 국가에 반입되는 시점에서는 관세만 발생하고, 제품이 판매되는 시점에서만 소비세가 발생하며, 그 소비세를 청구하는 것도 제품을 수령하는 주소의 '주'에서 정해주는 요율에 따라 발생합니다. 그리고 두 번째로 소득세는 한국의 기준으로 따지자면 개인사업자는 종합소득세, 법인의 경우 법인세를 생각하시면 간단합니다. 만약 외국 회사라고 한다면 당연히 소득세/법인세를 납부하지 않습니다 (법인이 타 국가에 설립된 것인데 법인세를 미국에서 한국 사업자를 대상으로 청구한다는 게 말이 안 되죠). 아무튼 그래서 미국 아마존에서 판매하는 대한민국 판매자들은 지금까지 세금을 하나도 안 내고 판매활동을 계속 해왔겠지만 아마존 영국이나 아마존 유럽에 진출하고자 하니 갑자기 안 내던 VAT를 내라고 하니까 당황스러울 수밖에 없습니다. 이것은 VAT란 개념에 대해서 먼저 이해할 필요가 있습니다 (당연한 얘기지만 미국은 VAT 법이 적용되지 않는 국가입니다). VAT 법이 적용되는 국가의 목록을 보시려면 위키피디아를 참고하시면 됩니다: https://ko.wikipedia.org/wiki/부가가치세 위에서 보이듯이, 대한민국을 포함한 웬만한 유럽 국가들은 VAT 법이 적용됩니다. 그리고 VAT라는 것은 "재화와 서비스의 거래에서 발생하는 부가가치에 주목하여 과세하는 구조이기 때문에(출처: 위키피디아)" 수입할 당시에도 수입 부가세, 즉 Import VAT라는 것이 발생하며, 해당 국가에서 매출이 발생할 때에도 매출 부가세, 즉 Sales VAT가 발생합니다 (아마존 US의 경우에는 이 부분을 판매가에 반영하지 않아도 Sales Tax 소비세를 고객이 지불하도록 아마존에서 자동 설정하지만 아마존 UK 및 유럽 국가의 경우, 판매가에 포함해야 합니다). 그리고 분기별로 해당 국가의 국세청에 부가세 신고를 할 때 수입할 당시 선납했던 VAT 만큼 공제/환급받을 수 있습니다.그렇다면 원래 질문인 '대한민국에 설립한 사업자인데 왜 타 국가의 부가세(VAT)를 내야 하나요?'라는 질문에 대해서는 결국 답은 'VAT 법이 적용되는 국가에 판매하려는 것이기 때문'입니다. 그 어떤 화물이라고 하더라도 VAT 법이 적용되는 국가에 반입되기 위해서는 수입 부가세 Import VAT가 발생하고, 그것을 지불할 대상은 여러분의 사업자이어야 나중에 여러분 앞으로 부과된 매출 부가세를 납부할 때 선납한 수입 부가세만큼 매출 부가세에서 공제/환급을 받을 수 있습니다. 매입 부가세도 여러분이 냈고, 매출 부가세도 여러분 앞으로 마땅히 청구할 VAT를 제대로 청구할 수 있도록 해당 국가의 국세청이 알려면 당연히 판매하고자 하는 VAT 법이 적용되는 국가에 VAT를 가입하고 판매활동을 하셔야 합니다.★09★Q: VAT 번호 신청/발급은 어떻게 하는건가요?A: 직접 신청할 수도 있지만, 편리상 해외 세무대리인을 사용하세요.대한민국 사업자가 VAT 번호를 신청하는 방법은, 직접 신청하는 방법도 있지만, 해외 세무대리인을 통해 신청하는 것이 훨씬 수월하고 쉽고 신속하게 처리할 수 있는 방법입니다. 아마존 코리아의 Service Provider이면서 한국에도 담당자가 배정되어있는 해외 세무대리인 업체는 EcommerceVAT (https://www.ecommercevat.com/home-kor)가 있으며, VAT 번호 발급 서비스가 원래 유료 서비스이지만, 아마존 코리아의 소개 또는 컨택틱의 소개를 통해 알게 됐다고 하시면 VAT 번호 발급은 무료로 지원하고 있습니다.★10★Q: VAT 분기별 신고 및 납부의 주기는 어떻게 되나요?A: VAT 발급일로부터 3개월마다 신고해야 합니다.예를 들어 8월 21일에 VAT 번호를 발급 받으셨다면 (VAT 효력 발생일), 9월, 10월, 11월 아마존 유럽 판매분에 대해서 정리 및 준비하시고, 공제/환급 서류(C79)도 준비하셔서, 해외 세무 대리인에게 제출하시면 세무 대리인이 여러분의 사업자 앞으로 생성된 HMRC Gateway에 들어가서 VAT 신고를 대신해줍니다. 납부는 신고가 완료된 날로부터 1주일 정도 이후에 신용카드 또는 페이오니아로 HMRC에 직접 납부 가능합니다.★11★Q: 도와주세요...A: 컨택틱에게 도움을 구하세요컨택틱은 대한민국 사업자들이 아마존의 어느 사이트에서 판매를 하더라도 컨설팅과 업무 대행으로써 도움을 드리고 있습니다. 수십 시간, 심지어는 수백 시간을 머리 아프게 고민하면서 여기저기 알아보는 게 오히려 비효율적일 수가 있습니다. 시간은 금이니까요. 아마존 유럽이 아니더라도, VAT 관련 업무 지원이 아니더라도 아마존 판매와 관련된 그 어떤 분야라면 컨택틱의 서비스가 굉장히 도움 될 것입니다. 상담은 돈 받지 않아요 ^^ 그리고 컨설팅 및 업무 대행 비용도 합리적입니다. 망설이지 마시고 부담 없이 연락 주시기 바랍니다.
조회수 1387

입사 선배에게 들어보는 합격의 기술

올해도 어김없이 상반기 채용 면접의 시기가 도래했습니다. 면접을 앞두고 계시는 지원자들은 벌써 가슴이 두근반 세근반 뛰실 텐데요, 조금 앞서 그 관문을 통과한 LG전자의 선배 사원에게 생생한 합격 팁을 들어보도록 하겠습니다.오늘 소개해 드릴 분은 H&A디자인연구소 인터렉션팀의 백경민 연구원! 선배 사원이 전하는 ‘솔직한’ 합격 스토리를 들어보도록 하시죠~Q1. 자기소개 부탁드려요.Answer 안녕하세요. LG전자 백경민 연구원입니다. 저는 2014년 3월에 입사해 현재 H&A디자인연구소 인터렉션팀에서 일하고 있답니다.Q2. 어떤 일을 하시나요?Answer 저는 UI/UX디자이너예요. 사용자가 제품을 사용할 때 제일 먼저 만나는 화면, 버튼을 포함한 모든 인터페이스를 디자인하는 일이 주 업무죠. 제가 있는 부서에서는 세탁기, 냉장고와 같은 가전 제품을 주로 디자인하고 있는데요. 직관적인 인터페이스, 사용하기 쉬운 제품을 디자인하기 위해 많은 고민을 하고 있습니다.Q3. 대학 시절, 전공으로 무엇을 공부했나요?Answer 저는 산업디자인학과를 나왔어요. 흔히 산업디자인이라고 하면 제품의 외형만 디자인하는 ‘디자이너’를 떠올리시는 분들이 더러 있는데요. 산업디자인이란 제품의 외형뿐 아니라 내부 구조나 부품까지 고려해야 하는 작업이기 때문에 전문적인 이공계 지식도 필요하죠. 이와 마찬가지로 UI/UX디자인도 디자이너로서의 미적 감각과 연구원으로서의 이공계 지식 모두를 갖춰야 해요. 따라서 산업디자인이라는 큰 틀 안에 UI/UX디자인이 포함되어 있다고 보셔도 될 것 같아요.Q4. UI/UX디자이너가 되기 위해서, 특별히 준비한 것이 있나요?Answer 남들처럼 스터디나 취업 관련 동아리를 한 것은 아니고요. 대학생 때는 관련 강의를 굉장히 열심히 들었어요. 가장 기억에 남는 것은 ‘LG전자 세탁기’를 주제로 수업을 진행했던 인터페이스 디자인 강의예요. 앞으로 디자이너로서 회사에서 하게 될 일을 미리 체험해볼 수 있었던 기회였고, 덕분에 LG전자라는 기업에 관심을 가질 수 있었죠. 결과적으로 LG전자에 입사하는 데에도 도움이 된, 유익한 강의였다고 생각해요.[잠깐 팁] 직접 발로 뛰어 최신 트렌드를 파악하라!‘신상’이라는 단어를 들었을 때, 대부분 사람은 유명 브랜드에서 출시한 고가의 가방이나 구두를 떠올릴 텐데요. UI/UX디자이너에게 있어서 최고의 ‘신상’은 바로 최신 전자제품이랍니다. 하루가 다르게 신제품이 출시되는 전자제품 시장에서 최신 트렌드를 파악하는 일은 곧 매출과 직결되는 중요한 업무거든요.그렇다면 요즘 유행하는 디자인, 새롭게 선보이는 기능, 업계 동향, 소비자 선호도 등 여러 가지 트렌드를 파악하기 가장 좋은 방법은 무엇일까요? 제 생각에는 직접 눈으로 보고 체험해 보는 것이 아닐까 싶은데요. 저 역시 소위 ‘신상’이라 불리는 최신 전자제품을 구경하러 대형 상가를 자주 찾았어요. 꾸준히 발품을 판 결과, LG전자 제품뿐만 아니라 다른 기업 제품의 특징이나 변화 과정을 체감할 수 있었죠. 직접 발로 뛰어 시장의 변화 과정을 눈으로 확인했던 경험이 취업에 큰 도움이 되었답니다. Q5. 정해진 분량 안에 최대한 자신을 어필해야 하는 자기소개서! 자기소개서 잘 쓰는 비법이 궁금해요!Answer 자기소개서를 잘 쓰고 싶은 마음은 누구나 같을 거예요. 하지만 분량이 정해져 있기 때문에 하고 싶은 이야기를 모두 담기란 불가능한 일이죠. 그렇다면 자기소개서에서는 어떤 이야기를 해야 할까요? 한 가지 팁을 드리자면 ‘The Most’라는 키워드를 기준으로 목록을 나열해보세요. 자신의 인생에서 ‘가장(The Most)’ 기억에 남는 사건들을 리스트로 뽑아보는 거예요. 그리고 그 안에서 자신이 변화할 수 있었던 경험이나 자신의 주변을 변화시킬 수 있었던 사건이 무엇인지 잘 살펴보세요. 더불어 단순히 사건을 나열하는 것에 그치지 말고, 이를 통해 무엇을 느꼈는지, 주변에 어떤 영향을 미쳤는지, 그리고 그 사건으로 인해 어떤 결과를 이뤄냈는지 서술한다면 분명 좋은 자기소개서가 될 수 있을 거예요. 마지막으로, 감정적인 단어나 모호한 단어들을 언급하는 것보다는 구체적이고 명확하게 서술한다면 진정성 있는 자기소개서를 작성하실 수 있을 겁니다.Q6. 디자이너라면 면접 의상도 왠지 남다를 것 같은데 실제로는 어떤가요?Answer 디자이너는 물론, 디자인 관련 채용 면접이라면 본인의 개성이나 특징을 의상이나 헤어스타일을 통해 드러내는 것도 나쁘지만은 않다고 생각해요. 저 역시 정장에 구두가 아닌, 입었을 때 편하고 기분 좋아지는 ‘나에게 어울리는 예쁜 옷’을 입고 면접에 임했는데요. 의상 덕분인지 그날따라 자신감이 넘치고 기분도 좋아져서 떨지 않고 편안하게 면접을 마칠 수 있었어요. 정장에 구두, 단정한 차림이 나쁘다는 이야기는 아니에요. 다만, 수많은 지원자 틈에서 기억에 남는 지원자가 되기 위해서라도 ‘나 다운 것’을 잃지 않았으면 해요. 그렇다고 해서 너무 파격적인 의상, 헤어스타일을 한다면, 조금 곤란하겠죠?Q7. LG의 인재상과 디자이너로의 인재상, 공통된 점이 있다면 무엇인가요?Answer LG가 바라는 인재상과 디자이너가 갖춰야 하는 소양은 공통된 부분이 많은 것 같아요. 고객에게 창의적인 결과물을 제공하려면 늘 호기심을 가지고 새로운 아이디어를 고안해야 한다는 점이 첫 번째 공통점이고요. 두 번째로, 고객에게 새로운 가치를 전하기 위해 자율적으로 해결책을 찾아 나가는 능동적인 태도를 가져야 한다는 것이 LG와 디자이너 인재상의 공통점이죠.Q8. 선배 LG인으로서 후배들에게 응원의 메시지 부탁드려요!Answer 빨리 취업을 해야 할 것 같은데, 맘처럼 되지 않아 조급해하는 분들이 간혹 계신데요. 이럴 때일수록 남과 비교하지 않고 한 템포 쉬어갈 수 있는 마음의 여유가 필요합니다. 이리저리 아무 데나 지원서를 써서 고생하지 마시고 ‘내가 가장 하고 싶은 일’을 적극적으로 지원해 줄 수 있는 회사를 찾아 노력을 기울인다면 분명 원하시는 결과를 이룰 수 있을 거예요. 모두 힘내세요!◈ LG전자 채용 SNS 페이스북, 트위터를 적극 활용하세요!자세한 일정 및 문의는 LG전자 채용 페이스북 facebook.com/LGEcareer를 통해 확인하세요. 이번 정시 채용과 관련된 생생한 정보를 채용 페이스북을 통해 알려드립니다. 여러분의 많은 관심 부탁드리며, 채용 페이스북은 언제나 On-Air라는 사실 잊지 마세요.^^LG전자 채용 페이스북 > http://on.fb.me/PCc7fF / LG전자 채용 트위터 > http://bit.ly/RCvtAs@ 이 글은 LG Careers(http://careers.lg.com/)의 내용을 재구성했습니다. #LG #LG그룹 #LG전자 #LG전자공채 #LG전자_정시채용 #LG전자채용 #상반기공채 #입사팁 #채용 #직무정보 #면접꿀팁 #기업문화 #구성원인터뷰 #공채정보
조회수 915

아마존에서 실제로 팔릴만한 상품(군)을 찾는 법

인사말안녕하세요 대한민국 셀러들의 아마존 진출을 도와주는 컨설팅 회사이자 업무 대행사인 컨택틱의 이이삭 대표입니다.오늘 제가 알려드리고 싶은 이야기는 '잘못된 상품 선정으로 인해 미판매 재고가 발생하는 것을 방지하는 방법'입니다.전자상거래 시장에 뛰어든 판매자라면 누구나 알고 있으며 한 번쯤은 겪었을만한 문제인 '미판매 재고'에 대해 항상 고민을 할 수 밖에 없습니다. 실제 통계에 따르면 판매자들이 유통하는 재고의 20% 정도는 미판매 재고로 남거나 폐기 처분 하게 된다고 합니다. 이걸 영어로 overstock 또는 dead stock라고도 표현합니다.INTRO - 1. 왜 이런 미판매 재고 문제가 발생하는가?이런 문제를 해결하는 방법에 대해 말씀 드리기 전에 우선 이런 미판매 재고 문제가 '왜' 발생하는지부터 말씀드리겠습니다. 크게 두 가지 원인이 있는데, (1) 제대로 된 조사 없이 상품을 선정/소싱 했거나 (2) 올바르지 않은 정보로 시장 조사를 했기 때문입니다.1번의 경우에는 성실하게 시장 조사를 하지 않은 내 자신을 탓할 수 밖에 없습니다. 하지만 2번의 경우에는 굉장히 억울할 수 밖에 없습니다. 숫자로 입증한 데이터를 기반으로 모든 결정을 내렸는데, 놓친 부분이 있었을 수도 있고, 내가 조사한 데이터가 오차 범위가 넓은 데이터일 수도 있고, 아니면 아예 wrong data를 참고한 것일 수도 있습니다 (예를 들면 관련이 없거나 오히려 연관성을 지으면 안되는 데이터).INTRO - 2. 미판매 재고 문제가 얼마나 심각한 문제인가?상품을 제조/사입 한 순간부터 일단 지출입니다. 여기에 쓰인 돈이 만약 미판매 재고가 된다면, 이 상품들을 제조/사입하면서 사용한 돈은 영원히 회수하지 못할 수도 있습니다. 제조/사입에만 사용한 돈만 날리는 거라면 그렇게 큰 문제가 아닐 수도 있습니다. 하지만 이 재고를 FBA 창고에 입고한 데에 사용한 물류비도 감안해야 하며, FBA 창고에 보관되면서 매월 발생하는 monthly storage fee, 그리고 6개월 이상 미판매된 재고에 대한 long term storage fee, 그리고 마지못해 폐기처리할 결정을 내렸다면 폐기를 하는 데에도 드는 FBA removal fee, 만약 한국으로 귀환 시킨다면 발생할 retrieval fee... 정말 예상했던 것보다 훨씬 큰 손해가 날 수 있는 것이 바로 미판매 재고 문제입니다.이런 비용 하나하나가 결국 '실제로 가능성이 있는' 상품들을 새로 발굴하고 소싱하고 마케팅하는 데에 사용할 돈이 되어야하는데, 잘못된 상품 선정이라는 우범 하나 때문에, 한정된 자금으로 사업을 운영해야 하는 사업주들의 입장에서는 심지어 잠재성을 가지고 있는 potentially profitable 상품들에 대한 기회조차 잃어버리게 되는 것이니, 그런 의미에서 미판매 재고가 가져오는 손해는 막심합니다.THE SOLUTION - 1. 미판매 재고 발생을 방지할 수 있는 기본팁 3가지세상에 그 어떤 것도 정해진 답은 없다고 생각합니다. 하지만 아래 3가지 팁을 통해 여러분들이 위에 언급된 '미판매 재고' 발생의 가능성을 최대한 낮추시길 희망합니다:1. 주관적인 생각을 배제하라 (오직 숫자만 믿어라)너무 당연한 얘기가 될 수도 있지만 실제로 많은 셀러들이 이 실수를 반복합니다. 단순히 '잘 팔릴 것 같다고 느끼기 때문에' 또는 주변에서, 세간에서 이런저런 상품이 요즘 인기있더라 라는 '카더라' 말을 듣고 제조/사입 결정을 내리는 것은 치명적인 실수라는 것을 반드시 항상 인지하고 이런 '감'을 통한 상품 결정을 해선 안됩니다. 그 외에도, 과거에 성공했다고 해서, 주변에 동일한 상품(군)을 판매한 지인이 잘됐다고 해서, 등등 이 모든 것들이 전부 결국 주관적인 input입니다. 후회하지 않으려면 이런 주관적인 생각이 아닌, 오직 올바른 데이터를 기반으로 한, 숫자로 입증된 데이터를 통해 결정을 내리시기 바랍니다.2. 과거 데이터에만 의지하지 말아라그렇지 않은 상품도 있지만, 특정 상품은 seasonal 시즌성 상품일 수도 있으며, fad 유행성 상품일 수도 있습니다. 물론, 과거 데이터가 향후 데이터를 예측할 수 있는 좋은 자료가 될 수도 있기도 하고, 저희가 지금 말하고 있는 data-driven 리서치 방법은 어쨌거나 지난 과거 기록을 살필 수 밖에 없는 것이지만, 과거 데이터 하나에만 온전히 결정의 기반을 두는 것은 각 상품의 특성상 다소 부정확하거나 위험할 수 있다는 것을 인지해야 합니다.3. '추천' 제품은 두 번 세 번 검토하라OEM/ODM 제조유통업자(PL 셀러)들에게 특히나 해당되는 이야기지만, 결국 제조사(공장)은 최대한 많은 제품을 판매하는 게 주 목적입니다. 그 제품을 소싱한 여러분이 재고를 팔 수 있을지 말지는 그들의 고민이 아닙니다. 따라서 제조사가 추천하는 신상품이나 그 제품에 대한 시장 동향도 너무 일방적으로 신뢰해서도 안되고, 이 공장이 여러분 뿐만 아니라 몇 명의 셀러들에게 브랜드명이랑 포장지만 바꾸고 풀어놨는지도 잘 파악해서 시장 포화도를 잘 분석하고 제조/사입을 해야합니다.THE SOLUTION - 2. 시장 조사는 이렇게 하세요답은 결국 올바른 시장 조사입니다. 하지만 올바른 시장 조사를 하려면 어떻게 해야하는지가 궁금하실겁니다. 올바른 시장 조사를 하려면 아래의 3가지를 반드시 고려하시기 바랍니다.1. 시장 크기 (수요) 분석내가 판매할 상품의 시장 크기가 '너무' 작으면 아무리 좋은 상품이어도, 아무리 가격 경쟁력이 있어도, 아무리 마케팅에 예산을 쏟아부어도 당연히 다 무의미한 것입니다. 아마존에 내 상품과 유사하거나 동일한 연관 상품의 목록을 수백, 수천개를 직접 하나하나 조사하고 그 상품들의 스텟(stats)를 분석해서 정녕 내가 진입할 이 시장의 크기가 적당한지를 우선 살펴봐야합니다.2. 경쟁/진입장벽 (공급) 분석시장 크기가 아무리 큰 시장이어도, 그만큼 공급이 많아서 경쟁이 심하면, 이것 또한 문제입니다. 매출이 발생하는 niche 틈새에 끼기 위해서 가격도 낮춰야하고, 이미지도 예쁘게 꾸며야하며, 마케팅을 통해 상위에 노출해야하는 등 여러가지 비용이 많이 들어가게 됩니다. 배보다 배꼽이 커지는 경우가 바로 이런 경우입니다.3. 트렌드 분석위에도 언급했듯이, historical data가 항상 답이 아닙니다. 하지만 그로 인해 알 수 있는 것은 '동향' 즉 trend입니다. 예를 들어 fidget spinner처럼 한 때 극적인 인기를 달리던 상품은 1년이 채 안되어서 인기가 증발했습니다. 소비성 상품이 아니기 때문에 이 수요가다시 올라가거나 현 상태를 유지될 확률은 전무하며, 거의 십중팔구는 아마 시간이 지날수록 이런 fad 상품은 점점 수요가 없어지게 됩니다. 트렌드를 잘 분석해서, (1) 연중 내내 수요가 밸런스 잡힌 시장 또는 시즌마다 일정 수요를 보이는 시즌성 제품을 선정하거나 (2) 라이징 트렌드를 보이는 선정하거나 (3) Fad 상품을 굳이 하겠다면 단타성으로 언제 치고 들어가서 언제 빠질지를 잘 결정해야 합니다.4. 비용 분석아마존에서 판매한다는 것은 굉장히 다양한 수수료가 발생할 것을 고려해야 합니다. 아마존 판매 수수료, FBA 입고를 위한 물류비, FBA 배송대행 수수료, FBA 창고 보관료, PPC 광고, 적절한 할인의 제공, 월 계정 유지비, 교환/반품/환불, 등등... 내가 소싱할 제품은 어느 판매가 구간에 속할지 (저가/중가/고가 상품) 분명히 알아야 하며, 그 안에서 내가 볼 마진의 폭이 정확히 얼마인지도 알아야 합니다.THE SOLUTION - 3. 전문가의 도움을 받으세요위에 언급한 모든 것들을 해결해주는 것이 컨택틱의 아마존 시장 조사 서비스입니다 (다른 말로, '아마존 진출 성공 가능성 분석 서비스'). 저희 회사 서비스를 홍보하려고 하는 것은 아니지만, 실제로 저희가 해드리는 이 시장 조사 서비스는 위에 언급한 모든 항목들을 고려해서 최대한 객관적인 데이터로 입증된 결론들을 의뢰자가 informed decision을 낼 수 있도록 도와주고 있습니다. 특정 상품에 대한 시장 조사를 의뢰하게 되면 그와 유사한 아마존에 존재하는 거의 모든 리스팅들을 뜯어보고 분석해서 그 시장에 대한 정확한 분석을 여러분들이 이해하기 쉬운 말로 설명해드립니다.컨택틱의 아마존 시장 조사 서비스는 20만원에 (부가세 별도) 시장 조사 결과 요약 보고서 1개와 화면 공유를 통한 1시간의 유선 컨설팅이 제공됩니다. 관심 있으신 분들은 연락 주세요!그럼 오늘도 즐거운 글로벌 셀링 되세요!컨택틱서울특별시 강남구 강남대로62길 11, 8층 (역삼동, 유타워)대표 전화: 02-538-3939해외 부서: 070-7771-1727영업 부서: 070-7771-1728이메일: [email protected]유튜브: https://www.youtube.com/channel/UC8OxbQGAnMqWGpGj5weLcZA홈페이지: https://www.kontactic.com
조회수 1522

초기 스타트업의 finance

스타트업에게 finance라는 의미는 어떤 것을 의미할까? 경험해본 바로는.. 가장 기본적으로1) Cash outflow2) funding이 두 가지가 "초기" 스타트업에게는 중요한 요소라는 결론이다. 이것은 별도의 CFO가 없는 상황에서 대표가 생각해야 할 가장 중요한 두 가지인데, 가지고 있는 돈이 어느 정도까지 시간을 벌어줄 수 있는지 파악하고, 그것이 부족할 때 Cash를 확보해와 회사의 생존을 책임지는 것이 핵심이다. Cash inflow도 중요하겠지만, 대부분의 경우 처음부터 inflow가 발생하기 어렵다는 점과, 그리고 더 위험한 것은 예측한 inflow가 그 예상대로 발생하지 않을 가능성이 너무나도 높다는 점이다. 그래서 예상 매출이 그대로 발생할 것이라고 믿고 있다가는 더 큰 위험에 빠질 수 있기 때문에 차! 라! 리! 없는 셈 치는 것이 현명한 것이라는 생각이다. 물론 파펨과 같은 초기 스타트업에 해당하는 이야기겠지만..Finance는 재무라는 하나의 영역이 아니다.전략, 마케팅, 생산 등과의 밀접한 연결은 너무나도 당연하며...돈만 다루는 영역이 아니라는 말씀!! 첫 번째로 Cash outflow를 파악하기 위해서는 business model에 대한 절대적인 이해가 필요한데, 이를 통해 비용구조에 대한 파악 및 예외적인 case에 대해서도 감지할 수 있어야 한다. 파펨을 예를 들어 설명하면, 여러 가지 어려운 점들이 있는데.. 1) 주문 확정 후 생산이 아닌, 예측 생산 2) 매달 새로운 제품 출시 : 매달 새로운 재고가 쌓인다. 기존 재고가 있어도 새로운 재고를 생산3) OEM 생산을 요청할 경우, MOQ(최소 주문 수량)의 제약으로 인해 필요량보다 추가 생산4) 계속해서 새로운 시도로, 아직 확정된 원가도 없는 상황 5) marketing cost인 무료 샘플의 개수 예측 난점6) industry 경험 부족으로 New product line up 출시까지의 시점이 길어짐  위의 난점들을 grouping 해서 issue로 정리하면... 첫 번째로 Working capital 이슈.  2), 3) 번이 꼽히는데, 기업에게 있어 적정재고는 필요하지만.. 작은 startup에게 있어 돈이 묶이게 되는 경우는 치명적인 경우가 많다. 그렇기 때문에 주문이 들어오면 바로 생산 및 배송하는 사례가 최선이라고 볼 수 있고.. 파펨도 그러한 방향으로 계속해서 생산 모델을 발전시켜 나가야 할 숙제를 가지고 있다. (그래서 재고가 없는 IT service가 startup에 더 적합할지도.. ^^;;) 게다가 OEM 공장에서는 대부분 MOQ(최소 생산 수량)을 요구하고.. 이 규모가 기존 업체들을 기준으로 하기 때문에 startup에게는 상당히 부담스러울 수밖에 없다. 예를 들면, 우리는 우선 1,000개만 있으면 되는 것을 10,000개 주문해두고 쌓아 두어야 한다는 것이다. 두 번째로, 예측의 어려움. 1), 5)에 해당할 텐데 사업 초반이기 때문에 아직은 판매 예측이 어렵다. 얼마나 주문이 들어올지? 혹은 얼마나 마케팅 상품인 free sample 요청이 들어올지 어렵다. 그렇기 때문에 조금은 여유 있게 만들 수밖에 없고 그것은 다시 한번 working capital issue로 돌아오게 된다. 세 번째로, industry 경험 부족이 finance 측면에서도 어려움을 주는데.. 4), 6)에 해당하며, 우리가 원하는 반제품들이 시장에 기성 상품으로 없는 경우가 많고, "남들이 해보지 않은 길"을 계속해서 찾아가는 파펨의 특성 상 시간이 많이 걸릴 수밖에 없다. 30ml 제품의 경우, 맘에 드는 spray와 캡 등을 찾기 위해 거의 5개월의 시간을 쓰게 되었다. 이렇게 시간이 길어지는 것은 고정비(인건비, 사무실 비용 등)가 계속해서 들어가는 것을 의미하며, 당연히  finance에 좋지 않은 영향을 미칠 수밖에 없다. 그렇다면 현재의 해결책은 무엇일까? 다른 Startup에도 적용할 수 있을 것이라는 생각하에 정리해 보았다. 1. Working capital issue 해결 방안  A. 지난 Season 상품 판매 채널 발굴 : 너무 많은 채널에 제품을 판매하기 보다는, 채널 별로 별도의 상품 구성과 채널별 exclusiveness를 통해 기존 재고를 해결할 계획이다. 예를 들어, A라는 채널에서는 Category box (예, 동일 카테고리 4병으로 구성)과 같은 상품 구성을 시도해 볼 계획이다. (이러한 이유로 파펨 사이트에서는 지난 season 상품을 판매하지 않고 있음). B라는 채널에서는 30ml 제품만 판매 등 B. 향수 원액을 다양한 product line으로 활용(one source multi use) : 곧 출시될 30ml 제품이 그 하나의 해결책. 초반에 만들어 bulk로 보관 중인 향수 원액을 30ml 제품으로 다시 태어나게 할 예정이다. 물론 OEM 공장에서 제작을 해야 한다. (화장품은 제조업 면허가 없는 한, 소분해서 판매할 수 없는 상황임)C. Flexibility를 높일 수 있는 design : 파펨의 box 디자인은 5ml 향수 한 병에서 네 병까지 넣을 수 있도록 디자인되어 있고, 이미지 카드도 다른 것을 인쇄해서 넣을 수 있도록 호환성을 고려하여 디자인하였다. 여러 가지 상황들이 발생할 때 적용하기 위해서 flexibility를 높이는 디자인이 필요하다.  2. 현재 상황에서 원가 구조 파악 컨설턴트 출신이 만든 회사가 정확한 원가 구조조차 파악하지 않는다는 것이 참 놀라운 일이지만 ^^;;;, 그것이 현실이다. rough 한 수준으로만 파악하고 있을 뿐이다. 중요한 재고에 대한 정확한 파악과 조금 더 정확한 원가 측정 시도 필요. 하지만 초반에는 정확한 원가 구조를 파악하는 것보다는 매출 drive를 걸 수 있는 요소들에 대한 시간 투자가 중요했다. 3. 예측 가능성 관련 A. 새로운 inventory control : "매달 새로운 네 가지 향수를 만드는" 파펨의 business model 에도 변화를 가져갈 상황이 필요하고, 시간이 조금 지나면 이러한 변화를 적용해야 한다는 생각이다. 계속해서 새로운 향수를 출시하는 것도 무리고, 그렇게 다양한 상품의 재고 관리의 complexity를 관리하는 것도 엄청난 부담이다. 이것은 business 운영에 있어 예측 가능성을 높여 줄 수 있다. B. 매출 측면에서의 예측 가능성은 아직 너무 낮음. 사실 이건 계속 어려울 수 있음..   ㅜㅜ 4. 경험 부족으로 인한 고정비 소모 관련 이는 업력이 쌓이면서 해결될 수밖에 없거나 혹은 눈높이를 조금 낮추는 노력?으로 해결해야 하는가?라는 고민을 하고 있다. 하지만, startup의 기획 단계에서 준비가 마무리된다면, 고정비 damage를 줄일 수 있지 않을까? 5. Scale로 인한 cost down아직은 생산 volume이 워낙 작기 때문에 scale effect를 기대하기 어려운 상황이다. 매출 증대를 위한 노력의 결과로.. scale 증대를 통한 cost down이 가능해질 수 있다. (는 것은 누구나 알고 있는 이야기. 매출이 뒷받침되지 않는 Scale 증대는  재고 & working capital 증대와 trade off 관계에 있기 때문에.. 조심스러움) 6. 자금 운영을 조금 더 계획적으로..  A. 문제가 생겼을 때, 문제가 발생했다는 것을 파악할 수 있는 alert system이 필요하다. 지금은 돈이 있는 것처럼 보이지만, 순식간에 SSG 빠져나가는 수가 허다하다. 특히 월말에 생각지도 못한 cash outflow가 발생하는 상황에 대처해야 한다. B. 항상 plan B와 plan C 준비. 파펨이 사용한 카드는 현재까지.. 1) XX보증기금을 통한 대출, 2) 거래 은행의 minus 통장이다. 추가로 자금이 필요할 경우 crowd funding이나, VC를 활용해볼 계획을 가지고 있다.  대학 때 finance 수업을 들으면 굉장히 복잡한 금융공학이나.. 혹은 Wall street의 멋진 슈트를 입은 banker 등이 떠올랐지만.. 지금 나에게 Finance란, business의 결과와 미래를 보여주는 지표이며.. 당장의 현실 생존의 문제이다. Source: 대문 이미지 http://www.moc-pages.com/image_zoom.php?mocid=332427&id=/user_images/70583/1346669477m_DISPLAY.jpg#파펨 #스타트업 #창업가 #창업자 #마인드셋 #인사이트 #파이낸스
조회수 1882

회사에서 야근, 과로는 훈장이다?!

"회사에서 야근, 과로는 훈장이라고 생각한 적이 있었다. 그리고 당연시하게 생각했다."지금 생각해보면 일을 바라보는 순수함 일 수도 있고  1년씩 나이를 먹으면서 일을 하고 사회를 바라보면서 생긴 모습인 거 같다.일을 열정적으로 하는 건 본인 삶에 굉장한 동기여부가 있는 것이고 목표가 분명할 거다.그러나 야근과 과로를 일상화 되었을 때 잘못된 점들이 드러나게 되는데 첫번째는 누구나 예상할 수 있는 건강의 변화고 두번째는 삶이 회사가 되버린다. 이 둘을 경험 해보면서 붙여진 별명은 '워커홀릭' 이었고 사람들의 인식은 회사에서 야근 제일 많이하는 사람, 일을 쉬지 않는 사람, 일 밖에 모르는 사람의 모습이었다.긍정적인 거는 일을 정말 사랑하는 사람, 열정적인 사람, 어떻게 일을 저렇게까지 할 수 있지? 애사심 이었는데 하다하다 '일을 그만 하세요' 라는 얘기를 많이 들었다.  이 얘기는 1, 2, 3번째 일하는 곳에서 모두 동일했다. 입사하고 그게 훈장이고, 열정이고 삶의 동기부여가 있기 때문이었는데 몸에 변화가 오면서 브레이크가 걸리기 시작했다. "어릴때는 20대니까 체력이 받쳐준다고 괜찮아"라고 맹신했고, 30대는 30대 초반이니까 아직 괜찮고 성과와 결과, 인정에 취해 있었다. 그러다 입원을 하기도 하고, 몸살이 생겨 일주일 쉬어도 낫지 않았다.그렇게까지 한 이유? 왜 일을 그렇게까지 하지? 혹은 지금도 그렇게 몸에서 이상신호를 보내면서 나도 저런데 일을 하시는 분들이 계실거 같습니다.야근을 자주하고 왜 할까? 이유를 보면  1) 그 날 마감해야 해서 (일정이 꼬여서)2) 상사가 시켜서 3) 본인이 편해서, 일하는 느낌이 들어서4) 일에 대한 간절함 5) 힘들게 살아 온 과정 등이 있는데 나에게는 4, 5번이 가장 큰 동기부여 였다. 첫번째는 얼떨결에 창업을 하게 돼서 아무것도 모르는 사람이 약 3년을 연명하다 정리를 했었고두번째 회사에서 사업부가 폐지 되면서 같이 있던 직원 12명이 다같이 짤리게 되었다. 두번째 회사를 다니기 위해서 서울에 자취방을 구하고 다닌 지 4달이 지나고 사업부가 날라간 것이다.실업급여 나오는 거 없이 이런 일이 발생해 - 이직 할 곳을 찾기 위해 계속 나를 탐닉하면서 필사적으로 대기업부터 스타트업까지 30여개 이력서를 내고 운좋게 3곳에서 연락이 와 그 중 하나인 지금 회사로 들어왔다.1년을 채웠으면 100개 이상을 냈을 것이다.  그렇게 "한 번만 기회를 주시면 최선을 다하겠다고 다짐하고 3번째 회사로 이직했었다"이런 과정을 겪으니 유재석씨가 개그맨 시절 일이 없어 힘들 때 한 번 만 기회를 주시면 최선을 다하겠다는 말이 공감이 됐었다. 내가 열심히 해도 망할 수도 짤릴 수도 있구나를 겪으면서 더 간절했던 거 같다.   그럼에도 온전히 일과 삶이 행복하기 위해서는 무리한 (야근과 과로) 삶의 연속이 아닌 나를 위한 일과 삶이 되어야 한다.다시 돌아오면 야근을 왜 할까? - '야근'은 밤에 부지런히 일하다, 임무를 행하다. 근무하다, 힘쓰다의 뜻이다. 위에 1번처럼 그 날 마감해야 하는 경우와 오늘 해놓지 않으면 일정이 꼬이는 필요에 의한 야근은 수명업무다 반대로 그게 일상화되면 업무가 포화상태이고, 수명업무가 아닌 고정업무가 되버릴 수 있다. 수명업무는 자율적 혹은 타율적으로 조정할 수 있지만 일상이 되버리는 고정업무가 되면 내가 조정할 수 있는 걸 포기했거나 그걸 당연시하게 받아들인 건 아닌지 체크해볼 필요가 있을 것이다.그리고 개선을 해야 된다. 프로세스든 구조적 개선이든 업무 분배든 2번 처럼 상사가 시키면 어쩔 수 없이 해야 되는 경우가 있다.나도 요청을 받아서 진행하기도 했었는데 이 때 중요한 건 요청 시간, 절차와 마감시간인 거 같다. 반대로 업무를 요청할 때도 마찬가지 3번처럼 본인이 편해서, 일하는 느낌이 들어서면 이거는 나태함이나 일중독을 의심해봐야 한다.여러 원인에서 다가올 수 있다. 느슨함에서 나오는 거일 수도 있고, 결과, 성과, 인정에 취해서 나의 업무량은 이렇게 꽉 채워야 내 마음이 편하고 일하는 거 같다고 생각한다면 다시 생각해봐야 한다. "그건 일을 잘하는게 아니기 때문이다."나를 위한 일과 삶이 아닌 깎아내는 일과 삶이 될 수 있다. 우리는 단거리 보다 장거리 레이스를 한다.수명업무는 단거리 레이스지만 우리는 1주 1달이 아닌 1년, 10년, 30년 이상을 일한다. "프로선수는 1게임(1일)을 위해 최선을 다하지만 그 시즌을 위해 관리 합니다." 그러나 이렇게 반문할 수 있는데 "그래도 돈을 그만큼 많이 벌고 나중에 편하게 살면 되지 않아?""결혼하려면 바짝 돈 벌어야 돼 나중에는 힘들어 젊을 때 무리하지 언제 무리해?"매일 선택하는 삶을 살아가는 우리는 나름의 논리와 이유를 가지고 얘기를 하는데 3년이상 무리하면서 느낀 건 무리함이 계속 되면 수명을 팔아서 일을 한다는 거였다.   "그건 훈장이 아니라 독이든 성배다." 물론 무리하면서 얻고 깨달은게 있었다. 인정, 보상, 역량, 스킬, 인사이트 하지만 무리와 스트레스가 쌓이면서 일에 대한 행복함이 조금씩 사라지는 게 느껴졌다. 간절함과 감사함도 조금씩 사라지면서 내린 결론은 "일이 행복해야 삶이 행복하다" 였고 워라밸은 따로 나눠져 있는 게 아닌 삶 속에 일이 연결되어 있고, 일이 행복하지 않은데 삶이 행복하기는 매우매우 어려울 것이라는 거였다. 내 인생을 투자하는 만큼 지금 보내는 하루하루가 본인이 만족하는 삶이 되었으면..끝으로 "야근이 나쁘다는게 아닌 필요에 의해서 하는 건 어쩔 수 없다. 하지만 그게 반복되고 고정이 된다면 우리는 타의적이든 자의적이든 해결을 해야 한다는 것이다."   #업무습관 #야근 #워커홀릭 #일중독 #워라밸 #균형 #조화임재환마케터
조회수 1342

하기 싫은 99가지의 숙명

사업은 하고 싶은 1가지를 위해 하기 싫은 99가지의 일을 감당해야 하는 것이라고 누군가 말했던 것 같다.운영총괄이라는 애매하고 포괄적인 역할을 맡고있는 나에게는 뼛속깊이 공감되는 말이다.때로는 잡무가 너무 많아서, 제품에 더 중요한 기여를 할 일을 하지 못하고 이대로 잡무에만 파묻히게 되는 건 아닌가 하는 생각이 들 때마저 있다.나는 과연 무슨 일을 하고 있는걸까?사람이 없으면 사람을 뽑아야 하고사람이 들어오면 팀에 녹아들도록 교육을 하고 계획대로 하루하루가 잘 돌아가도록 회의를 진행해야 하고동기부여가 떨어지는 것 같으면 워크숍을 가든 액티비티를 짜든 해결안을 마련해야 하고돈이 없으면 지원금이나 대회, IR 이 되었든 뭐든 찾아서 신청을 해야 하고딴 사업이 있으면 자금 집행에 필요한 각종 계획서와 세부 계약을 하고계약을 예정대로 집행하고 끝나면 서류를 마련해 보고해야 하고때 되면 급여를 보내고 필요한 금액을 집행하고세금 신고를 하고, 연말 정산을 하고평소에 새는 돈은 없는지 관리하고필요한 리서치를 하고제품이 나오는 데 구체적인 계획은 있는 건지 확인해야 하고사무실에 먹을 거리 떨어지면 사놔야 하고사무실 옮길 때 되면 이사 준비 해야 하고대표가 자리를 비웠으면 대표의 말을 대신해야 하고...조직이 작을 수록 그렇겠지만중요한 일과, 중요하지 않지만 누군가 하지 않으면 안될 일이 가득 섞여있다.그 중에는 정말 하기 싫은 일도 있다.나 또한 뭔가 가치있고 의미있는 일을 하고자 스타트업에 온 것인데왜 필요한 건지 납득도 안되고 성장에도 도움이 안될, 누가해도 될 일을 하자면 더 괴롭기도 하다.오늘만해도 보고서만 몇 개를 쓴 건지.......... 하지만 나 말고도 스타트업은 모두가 하고 싶은 일을 하기 위해서 온 것이니까하고 싶은 일을 하면서도 목표치를 맞추기엔 힘이 드니까모두가 하기 싫은 일이라도 하지 않았으면 해서이 사업과 이 팀을 정말 사랑하니까 맡아서 할 수 있는 일인 것 같다.말하자면 내 역할은 눈엣가시를 치워주는 일.눈이 쌓였으면 눈길을 닦고 차가 앞으로 나아갈 수 있도록 밀어주는 일.그 장애물이팀의 앞 길에 걸림돌이 되고 있는 심각하고 고질적인 문제가 되었든아무도 하기 싫지만 누군가는 처리해야 할 사소한 잡무가 되었든다 치워버리고 우리가 가야 할 길로 탱크를 밀어붙이는 것이 COO의 역할이 아닐까 하는,나만의 정의를 내려본다.I am the one who keeps the train rolling on time!#라이비오 #COO #COO의일상 #COO의역할 #인사이트
조회수 307

“점점 더 좋은 답을 찾게 되는 것 같아요.”

인터뷰를 위해 작성한 질문지에 쓴 답을 보고 조금 감동받았다. 사실, 인터뷰 전 질문지는 흡족한 대답을 듣기 위함이라기보다 만나기 전 아이스-브레이킹 같은 개념이라 서로가 힘을 싣지 않기 마련인데 조윤성은 달랐다. 질문 하나하나에 얼마나 고민을 하고 성심성의껏 답을 썼을지 투명하게 보이는 답안들을 건네주었다. 더 추가적인 질문을 할 게 있을까 당황이 들 정도로 충분히 100% 다 눌러 담아낸 듯. 비록 질문지의 답을 그대로 적더라도, 계속 사람들을 만나고 더 좋은 답을 찾고 싶다는 그와 만나 좋은 답에 대한 이야기를 나누어야겠다는 생각이 들었다.인터뷰 시작하기 전, 자신감 충전 좀 하고 가시죠. 입사한지 얼마 되지 않았는데 이번에 처음 생긴 MBP(Most B.A.Table Player) 시상식(?)에서 유기적인 협업상을 받았잖아요. 축하해요!하하 너무 쑥스럽네요. 진짜 예상도 못 했거든요. 나 지금 잘하고 있는 건가, 뭘 더 해야 하는 건 아닌가 하는 생각이 들 찰나에 이런 상을 받게 되었네요. 앞으로 더 잘하라는 부담인 것 같기도 한데.. (웃음) 어쨌든 더 열심히 해보겠습니다!자, 기분 좋은 부담을 안고 인터뷰를 시작해볼까요? 먼저 조윤성이 어떤 사람인지 말해주세요.안녕하세요. 사람에 대한 관심이 많은 AE 조윤성입니다. 음, 쓸데없는 생각이 많은 사람일 수도 있는데요. 누군가가 어떤 행동이나 말을 하면 왜, 무슨 생각으로, 어떤 이유로 그런 말이나 행동을 했는지 궁금하고 생각하게 되는 편입니다.이런 성향(?)이기 때문에 지금 하는 일이 적성에 맞는 것 같은걸요. (웃음) 자연스럽게 이어질 것 같으니 B.A.T에서 무슨 일을 하고 있는지 알려주세요. 전 클라이언트 커뮤니케이션과 광고 기획을 담당하고 있습니다. 현재는 레드락, LG 소셜 캠퍼스, KT&G 등의 브랜드를 맡아 클라이언트와 내부 크리에이티브 팀 사이의 커뮤니케이션을 진행하고 디지털 컨텐츠 방향을 조율합니다. 또, 경쟁 PT도 준비하면서 제안서를 이끌어갈 빅 아이디어를 생각하고 온오프라인 캠페인 아이디어를 고민하고 있고요. 최근에는 신사업 준비를 위해 다양한 포토그래퍼와 PD 분들도 만나고 있어요! 워낙 사람들과 만나서 대화하는 걸 좋아하다 보니 즐겁게 돌아다니고 있습니다. [(좌) LG 소셜 캠퍼스, (우) 레드락 프로젝트 외에도 많은 프로젝트를 담당하고 있다.]B.A.T는 어떻게 알고 지원했는지 궁금해요.전 회사에서는 사수가 기본적인 방향을 잡아주고 퀄리티 컨트롤을 해주셔서 조금은 수동적으로 일을 했던 것 같아요. 스스로가 더 주체적인 개념이 되어 다양한 실무에 직접 부딪혀보고 싶다는 욕심이 생겼을 때, 우연히 B.A.T를 발견하게 되었습니다. 관심이 생겨 브런치를 정독하다 보니 가보지도 않은 회사에 일원이 된 듯한 호감을 느끼기도 했고, 스타트업이기에 하고 싶은 것들을 도전해볼 수 있겠다는 생각이 들어서 주저 없이 지원하게 되었습니다.그래서 지금 만족스러운가요?생각했던 것처럼 100% 흘러가진 않지만 (웃음) 지금보다 더 나은 방법에 대해 고민하고 디테일까지 꼼꼼하게 신경 쓰며 진취적으로 일할 수 있는 부분들은 좋습니다. 철저한 아웃풋 퀄리티에 신경 쓰다 보니 책임감도 더 생기고 제 자신이 발전하는 것 같기도 하고요. 아, 무엇보다 함께 일하는 좋은 사람들, 자유로운 근무환경, 다양한 분야의 지식 공유 등이 만족스럽습니다!최종적으로 이루고 싶은 목표가 있다면.요즘 고민하는 부분이기도 한데, 제 스스로에 대한 브랜딩이 확실해야 할 것 같아요. 대체 가능한 누군가가 아닌 저만의 무기를 가지고 이런 상황에선 바로 저라는 사람이 생각날 수 있도록 말이죠. 그리고 이 모든 것을 아우를 수 있는, 필요한 사람이 되고 싶어요!오, 멋지네요. 마지막 질문이에요. 윤성님에게 B.A.T란?Better Answer Team이요! 아무리 자신의 프로젝트라고 해도 혼자 생각하고 일하다 보면 항상 막히거나 부족한 부분이 나오기 마련인데, 그럴 때마다 주변 동료들에게 도움을 요청하고 이야기를 나누다 보면 항상 더 좋은 답이 나왔어요. 특히 우리가 하는 일은 그저 그런 답이 아니아 항상 지금보다 더 좋은 답을 찾는 일이잖아요. 그래서 B.A.T는 지금 제 일을 더 잘 할 수 있게 해주는, 더 좋은 답을 찾게 해주는 Better Answer Team입니다!
조회수 1027

[우리는 비투링커 #7] 대만에서 한국으로 온 비투링크 '슈퍼맨' 양제가님을 소개합니다.

안녕하세요, 미나 입니다 :)비투링크에서는 매 달 1명의 '이달의 비투링커' 를 선정합니다!6월의 비투링커는 누규? 그 누구보다도 한국을 사랑하고,그 누구보다도 성실하고,그 누구보다도 긍정적인 6월의 비투링커는 바로!!▼▼ 먼저, 아리따운 4명의 비투링커들의 추천영상을 보시죠! ▼▼갈수록 발전하는 추천영상의 퀄리티 ㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋ 엄지척!!! b b b6월의 비투링커는 바로,참 좋은 인상을 가진 양제가 님입니다 ♥제가님은 대만에서 오셨어요:)한국어가 아직은 서툴지만,한국을 너무 사랑하고, 또 항상 '노력' 하는 제가님!! !*~*그런 제가님을 제가 직접 만나봤습니다*~*! 안녕하세요, 저는 Brand Sales Division 내 중국 온라인채널팀에서'VIP.com' 이라는 채널을 담당하는 양제가 입니다!제가 하는 업무는 채널 내 재고와 매출모니터링, 분석 및 상품측정과 제안, 채널이벤트 기획과 협의, 매출결산 등 전반적인 채널 매니지먼트 업무를 하고 있습니다 ^_^소감... 기분 정말로 좋습니다!!!!영상을 봤을 때, 첫느낌은 '마징가 Z' 만화가 생각났어요 ㅋㅋ근데 제 얼굴이 딱 보이길래 깜짝 놀랬어요. 왜냐면, 진짜로 1도 상상을 못했거든요!팀원들이 없었으면, 제가 이런 상을 받을 수도 없었을거에요. 그리고 제가 한국말이 서툴어서, 미리 알았다면 ㅋㅋ 앞에나가서 소감멘트를 준비했을텐데..너무 놀래서 제대로 말을 못한거 같아서 아쉬워요 :(제가님이 속해있는 BSD ♥인터뷰 전에도 미리 질문을 전달해주면, 어떻게 말할지 준비하겠다고 하셨던 제가님!! 인터뷰 당일 날, 프린트까지 해서 오셨다죠 :)팀원들은 제가님을 '부지런한 새' 로 표현해요! 비투링커들 중에 가장 먼저 출근하고, 가장 늦게 퇴근하고, 또 매일 점심시간을 쪼개 업무를 하시느라 김밥을 드시는 제가님 ㅠㅠ 여기에 대한 제가님의 생각은 어떠신지 궁금했어요!저는 원래 아주 일찍 일어나는 아침형 인간이에요 :)심지어 출근을 안하는 주말에도 늦잠을 자는 일이 별로 없어요!우선은 일어나면 일찍 회사에 와서 하루를 시작하기전에 오늘 해야할 일을 정리하고,또 제 자신에게 조용히 저만의 시간을 주는 걸 즐겨요!그리고, 제가 점심 때 김밥을 먹는 건 다 이유가 있어요~~시간이 없지만, 그 틈을 타 '건강' 을 챙기기 위해서인데요. 김밥은 여러가지 야채를 선택해서한번에 먹을 수 있잖아요. 참치, 야채, 우엉이 같이 들어간 걸 젤 좋아해요 :) 저 같은경우에는 매일 커뮤니케이션 해야하는 유관부서가 정말로 많아요.중국 채널, 온라인, BM, 물류 등 실시간 소통이 필요하고,또 그걸 빠르게 대처해야하기 때문에 시간이 여유롭지 않아요.그래서 점심시간을 틈타 생각을 정리하는 시간을 가져요.밥을 먹고나면 '소화' 할 시간이 필요한 거 처럼,저에게는 '한국어' 를 사용할 때, 충분히 '소화' 할 수 있는 시간이 필요한거죠. 제가 한국에 온지 아직 1년이 안됬어요!그래서 지금은 주말에 한국에 대한 공부를 합니다 :)'한국어 능력시험' 공부 뿐만 아니라, 글쓰기연습을 합니다!또, 한국에 대한 '외국인을 위한' 책을 읽기도해요.(한국의 지리, 간단한 현대사 등)제가님이 공부하는 책들 :)와! 그런책이 있는지 전혀 몰랐는데요. 제가님이 저보다 더 잘 아시는거 아닌가요? ㅋㅋㅋ그 외에는 저 농구하는 거 좋아요 !!제가 캐나다에서 대학을 나왔는데, 그때 만났던 한국친구랑일주일에 한번 씩 한강공원에서 농구합니다 :) 매주 같이 농구하는 친구와 제가님 :)제 컵별명은 "곧! 한국인" 입니다 :)이거만 보면, "이 사람은 외국인이구나." 라고 알 수 있겠죠? ㅎㅎ예전에 캐나다에서 유학을 했는데, 학교와 기숙사에서 한국친구들의 도움을 정말 많이 받았어요! 그리고 한국인들의 애국심과 단결심이 인상적이었다고 할까요?그때부터였던거 같아요. 대학을 졸업하고, 꼭 한국에서 취업해야지를 느꼈어요 :)지금은 한국에 취직해서, 한국문화를 즐기면서 열심히 살고 있습니다 :)저는 작년 8월 16일에 입사했어요!제가 정확하게 이 날을 기억하고 있는 이유는, 제 인생의 마일스톤 (milestone) 이기 때문이에요.처음으로 혼자 외국으로 와서 취직도하고, 제가 꾸는 꿈의 첫번째 단계로 들어온 날이니그 날은 정말로 잊을 수가 없네요 :)제가 제일 좋아하는 브랜드는 '파파레서피'예요 :)신기하게 대만에 있을 때부터 파파레서피를 정말 좋아했어요!근데 비투링크에 입사하고, 또 제가 'VIP' 라는 채널을 담당하면서브랜드에 대한 애정이 더욱 더 커졌습니다. *~*~!![이미지출처: 네이버 블로그] 파파레서피 봄비 꿀보습 클렌저봄비 꿀 보습 클렌저가 좋은 이유 3가지!(1) 풍성하고 쫀쫀한 거품! (거품이 많아서 젤 좋아요)(2) 세수하고나서고 당기지않고 촉촉!(3) 저 같은 지성피부에 딱 좋은 딥클렌징 + 노폐물제거 가능!이전에 파파레서피 행사에 갔을 때 찍은 사진!제가 올해 10월에 한국어 능력시험을 봐요 :) 한국어 능력시험은 가장낮은 1급부터 6급까지 있어요!작년에 5급을 땄는데, 올해는 가장 높은 6급을 따는 게 목표입니다 !!!더해서, 계속해서 '한국' 이라는 나라에 대해 공부할거에요! ♥제 꿈은 '한국으로 귀화' 하는 것입니다 :)저는 남들보다 대학을 좀 늦게 졸업했어요.대학을 다니면서 졸업 후에 꼭 '한국' 으로 가서 일하는 꿈을 가지고 열심히 노력했어요!그리고, 지금 현재 저는 그 꿈을 이뤘고, 더 나아가기위해서 매일 노력하고 있어요 :)그래서 전 요즘 매일매일이 행복하고 감사하다는 생각을 가져요.아참. 기쁘다는 말보다 더 기쁘다는 표현이 뭐가있죠?"기쁘다" 그 이상의 기분이에요! :) 꿈을 이루기 위해서 하루하루 열심히 노력하는 제가님의 이야기를 들으면서, 제 자신에 대해서도 큰 동기부여가 되는 시간이었습니다 :) 제가님 감사해요 ♥#비투링크 #팀소개 #팀원소개 #팀원인터뷰 #인터뷰 #즐거운분위기 #사내문화 #조직문화 #기업문화
조회수 3225

Attention is all you need paper 뽀개기

이번 포스팅에서는 포자랩스에서 핵심적으로 쓰고 있는 모델인 transformer의 논문을 요약하면서 추가적인 기법들도 설명드리겠습니다.Why?Long-term dependency problemsequence data를 처리하기 위해 이전까지 많이 쓰이던 model은 recurrent model이었습니다. recurrent model은 t번째에 대한 output을 만들기 위해, t번째 input과 t-1번째 hidden state를 이용했습니다. 이렇게 한다면 자연스럽게 문장의 순차적인 특성이 유지됩니다. 문장을 쓸 때 뒤의 단어부터 쓰지 않고 처음부터 차례차례 쓰는 것과 마찬가지인것입니다.하지만 recurrent model의 경우 많은 개선점이 있었음에도 long-term dependency에 취약하다는 단점이 있었습니다. 예를 들어, “저는 언어학을 좋아하고, 인공지능중에서도 딥러닝을 배우고 있고 자연어 처리에 관심이 많습니다.”라는 문장을 만드는 게 model의 task라고 해봅시다. 이때 ‘자연어’라는 단어를 만드는데 ‘언어학’이라는 단어는 중요한 단서입니다.그러나, 두 단어 사이의 거리가 가깝지 않으므로 model은 앞의 ‘언어학’이라는 단어를 이용해 자연어’라는 단어를 만들지 못하고, 언어학 보다 가까운 단어인 ‘딥러닝’을 보고 ‘이미지’를 만들 수도 있는 거죠. 이처럼, 어떤 정보와 다른 정보 사이의 거리가 멀 때 해당 정보를 이용하지 못하는 것이 long-term dependency problem입니다.recurrent model은 순차적인 특성이 유지되는 뛰어난 장점이 있었음에도, long-term dependency problem이라는 단점을 가지고 있었습니다.이와 달리 transformer는 recurrence를 사용하지 않고 대신 attention mechanism만을 사용해 input과 output의 dependency를 포착해냈습니다.Parallelizationrecurrent model은 학습 시, t번째 hidden state를 얻기 위해서 t-1번째 hidden state가 필요했습니다. 즉, 순서대로 계산될 필요가 있었습니다. 그래서 병렬 처리를 할 수 없었고 계산 속도가 느렸습니다.하지만 transformer에서는 학습 시 encoder에서는 각각의 position에 대해, 즉 각각의 단어에 대해 attention을 해주기만 하고, decoder에서는 masking 기법을 이용해 병렬 처리가 가능하게 됩니다. (masking이 어떤 것인지는 이후에 설명해 드리겠습니다)Model ArchitectureEncoder and Decoder structureencoder는 input sequence (x1,...,xn)<math>(x1,...,xn)</math>에 대해 다른 representation인 z=(z1,...,zn)<math>z=(z1,...,zn)</math>으로 바꿔줍니다.decoder는 z를 받아, output sequence (y1,...,yn)<math>(y1,...,yn)</math>를 하나씩 만들어냅니다.각각의 step에서 다음 symbol을 만들 때 이전에 만들어진 output(symbol)을 이용합니다. 예를 들어, “저는 사람입니다.”라는 문장에서 ‘사람입니다’를 만들 때, ‘저는’이라는 symbol을 이용하는 거죠. 이런 특성을 auto-regressive 하다고 합니다.Encoder and Decoder stacksEncoderN개의 동일한 layer로 구성돼 있습니다. input $x$가 첫 번째 layer에 들어가게 되고, layer(x)<math>layer(x)</math>가 다시 layer에 들어가는 식입니다.그리고 각각의 layer는 두 개의 sub-layer, multi-head self-attention mechanism과 position-wise fully connected feed-forward network를 가지고 있습니다.이때 두 개의 sub-layer에 residual connection을 이용합니다. residual connection은 input을 output으로 그대로 전달하는 것을 말합니다. 이때 sub-layer의 output dimension을 embedding dimension과 맞춰줍니다. x+Sublayer(x)<math>x+Sublayer(x)</math>를 하기 위해서, 즉 residual connection을 하기 위해서는 두 값의 차원을 맞춰줄 필요가 있습니다. 그 후에 layer normalization을 적용합니다.Decoder역시 N개의 동일한 layer로 이루어져 있습니다.encoder와 달리 encoder의 결과에 multi-head attention을 수행할 sub-layer를 추가합니다.마찬가지로 sub-layer에 residual connection을 사용한 뒤, layer normalization을 해줍니다.decoder에서는 encoder와 달리 순차적으로 결과를 만들어내야 하기 때문에, self-attention을 변형합니다. 바로 masking을 해주는 것이죠. masking을 통해, position i<math>i</math> 보다 이후에 있는 position에 attention을 주지 못하게 합니다. 즉, position i<math>i</math>에 대한 예측은 미리 알고 있는 output들에만 의존을 하는 것입니다.위의 예시를 보면, a를 예측할 때는 a이후에 있는 b,c에는 attention이 주어지지 않는 것입니다. 그리고 b를 예측할 때는 b이전에 있는 a만 attention이 주어질 수 있고 이후에 있는 c는 attention이 주어지지 않는 것이죠.Embeddings and Softmaxembedding 값을 고정시키지 않고, 학습을 하면서 embedding값이 변경되는 learned embedding을 사용했습니다. 이때 input과 output은 같은 embedding layer를 사용합니다.또한 decoder output을 다음 token의 확률로 바꾸기 위해 learned linear transformation과 softmax function을 사용했습니다. learned linear transformation을 사용했다는 것은 decoder output에 weight matrix W<math>W</math>를 곱해주는데, 이때 W<math>W</math>가 학습된다는 것입니다.Attentionattention은 단어의 의미처럼 특정 정보에 좀 더 주의를 기울이는 것입니다.예를 들어 model이 수행해야 하는 task가 번역이라고 해봅시다. source는 영어이고 target은 한국어입니다. “Hi, my name is poza.”라는 문장과 대응되는 “안녕, 내 이름은 포자야.”라는 문장이 있습니다. model이 이름은이라는 token을 decode할 때, source에서 가장 중요한 것은 name입니다.그렇다면, source의 모든 token이 비슷한 중요도를 갖기 보다는 name이 더 큰 중요도를 가지면 되겠죠. 이때, 더 큰 중요도를 갖게 만드는 방법이 바로 attention입니다.Scaled Dot-Product Attention해당 논문의 attention을 Scaled Dot-Product Attention이라고 부릅니다. 수식을 살펴보면 이렇게 부르는 이유를 알 수 있습니다.Attention(Q,K,V)=softmax(QKT√dk)V<math>Attention(Q,K,V)=softmax(QKTdk)V</math>먼저 input은 dk<math>dk</math> dimension의 query와 key들, dv<math>dv</math> dimension의 value들로 이루어져 있습니다.이때 모든 query와 key에 대한 dot-product를 계산하고 각각을 √dk<math>dk</math>로 나누어줍니다. dot-product를 하고 √dk<math>dk</math>로 scaling을 해주기 때문에 Scaled Dot-Product Attention인 것입니다. 그리고 여기에 softmax를 적용해 value들에 대한 weights를 얻어냅니다.key와 value는 attention이 이루어지는 위치에 상관없이 같은 값을 갖게 됩니다. 이때 query와 key에 대한 dot-product를 계산하면 각각의 query와 key 사이의 유사도를 구할 수 있게 됩니다. 흔히 들어본 cosine similarity는 dot-product에서 vector의 magnitude로 나눈 것입니다. √dk<math>dk</math>로 scaling을 해주는 이유는 dot-products의 값이 커질수록 softmax 함수에서 기울기의 변화가 거의 없는 부분으로 가기 때문입니다.softmax를 거친 값을 value에 곱해준다면, query와 유사한 value일수록, 즉 중요한 value일수록 더 높은 값을 가지게 됩니다. 중요한 정보에 더 관심을 둔다는 attention의 원리에 알맞은 것입니다.Multi-Head Attention위의 그림을 수식으로 나타내면 다음과 같습니다.MultiHead(Q,K,V)=Concat(head1,...,headh)WO<math>MultiHead(Q,K,V)=Concat(head1,...,headh)WO</math>where headi=Attention(QWQi,KWKi,VWVi)dmodel<math>dmodel</math> dimension의 key, value, query들로 하나의 attention을 수행하는 대신 key, value, query들에 각각 다른 학습된 linear projection을 h번 수행하는 게 더 좋다고 합니다. 즉, 동일한 Q,K,V<math>Q,K,V</math>에 각각 다른 weight matrix W<math>W</math>를 곱해주는 것이죠. 이때 parameter matrix는 WQi∈Rdmodelxdk,WKi∈Rdmodelxdk,WVi∈Rdmodelxdv,WOi∈Rhdvxdmodel<math>WiQ∈Rdmodelxdk,WiK∈Rdmodelxdk,WiV∈Rdmodelxdv,WiO∈Rhdvxdmodel</math>입니다.순서대로 query, key, value, output에 대한 parameter matrix입니다. projection이라고 하는 이유는 각각의 값들이 parameter matrix와 곱해졌을 때 dk,dv,dmodel<math>dk,dv,dmodel</math>차원으로 project되기 때문입니다. 논문에서는 dk=dv=dmodel/h<math>dk=dv=dmodel/h</math>를 사용했는데 꼭 dk<math>dk</math>와 dv<math>dv</math>가 같을 필요는 없습니다.이렇게 project된 key, value, query들은 병렬적으로 attention function을 거쳐 dv<math>dv</math>dimension output 값으로 나오게 됩니다.그 다음 여러 개의 head<math>head</math>를 concatenate하고 다시 projection을 수행합니다. 그래서 최종적인 dmodel<math>dmodel</math> dimension output 값이 나오게 되는거죠.각각의 과정에서 dimension을 표현하면 아래와 같습니다.*dQ,dK,dV<math>dQ,dK,dV</math>는 각각 query, key, value 개수Self-Attentionencoder self-attention layerkey, value, query들은 모두 encoder의 이전 layer의 output에서 옵니다. 따라서 이전 layer의 모든 position에 attention을 줄 수 있습니다. 만약 첫번째 layer라면 positional encoding이 더해진 input embedding이 됩니다.decoder self-attention layerencoder와 비슷하게 decoder에서도 self-attention을 줄 수 있습니다. 하지만 i<math>i</math>번째 output을 다시 i+1<math>i+1</math>번째 input으로 사용하는 auto-regressive한 특성을 유지하기 위해 , masking out된 scaled dot-product attention을 적용했습니다.masking out이 됐다는 것은 i<math>i</math>번째 position에 대한 attention을 얻을 때, i<math>i</math>번째 이후에 있는 모든 position은 Attention(Q,K,V)=softmax(QKT√dk)V<math>Attention(Q,K,V)=softmax(QKTdk)V</math>에서 softmax의 input 값을 −∞<math>−∞</math>로 설정한 것입니다. 이렇게 한다면, i<math>i</math>번째 이후에 있는 position에 attention을 주는 경우가 없겠죠.Encoder-Decoder Attention Layerquery들은 이전 decoder layer에서 오고 key와 value들은 encoder의 output에서 오게 됩니다. 그래서 decoder의 모든 position에서 input sequence 즉, encoder output의 모든 position에 attention을 줄 수 있게 됩니다.query가 decoder layer의 output인 이유는 query라는 것이 조건에 해당하기 때문입니다. 좀 더 풀어서 설명하면, ‘지금 decoder에서 이런 값이 나왔는데 무엇이 output이 돼야 할까?’가 query인 것이죠.이때 query는 이미 이전 layer에서 masking out됐으므로, i번째 position까지만 attention을 얻게 됩니다.이 같은 과정은 sequence-to-sequence의 전형적인 encoder-decoder mechanisms를 따라한 것입니다.*모든 position에서 attention을 줄 수 있다는 게 이해가 안되면 링크를 참고하시기 바랍니다.Position-wise Feed-Forward Networksencoder와 decoder의 각각의 layer는 아래와 같은 fully connected feed-forward network를 포함하고 있습니다.position 마다, 즉 개별 단어마다 적용되기 때문에 position-wise입니다. network는 두 번의 linear transformation과 activation function ReLU로 이루어져 있습니다.FFN(x)=max(0,xW1+b1)W2+b2x<math>x</math>에 linear transformation을 적용한 뒤, ReLU(max(0,z))<math>ReLU(max(0,z))</math>를 거쳐 다시 한번 linear transformation을 적용합니다.이때 각각의 position마다 같은 parameter W,b<math>W,b</math>를 사용하지만, layer가 달라지면 다른 parameter를 사용합니다.kernel size가 1이고 channel이 layer인 convolution을 두 번 수행한 것으로도 위 과정을 이해할 수 있습니다.Positional Encodingtransfomer는 recurrence도 아니고 convolution도 아니기 때문에, 단어의sequence를 이용하기 위해서는 단어의 position에 대한 정보를 추가해줄 필요가 있었습니다.그래서 encoder와 decoder의 input embedding에 positional encoding을 더해줬습니다.positional encoding은 dmodel<math>dmodel</math>(embedding 차원)과 같은 차원을 갖기 때문에 positional encoding vector와 embedding vector는 더해질 수 있습니다.논문에서는 다른 *frequency를 가지는 sine과 cosine 함수를 이용했습니다.*주어진 구간내에서 완료되는 cycle의 개수PE(pos,2i)=sin(pos/100002i/dmodel)<math>PE(pos,2i)=sin(pos/100002i/dmodel)</math>PE(pos,2i+1)=cos(pos/100002i/dmodel)<math>PE(pos,2i+1)=cos(pos/100002i/dmodel)</math>pos<math>pos</math>는 position ,i<math>i</math>는 dimension 이고 주기가 100002i/dmodel⋅2π<math>100002i/dmodel⋅2π</math>인 삼각 함수입니다. 즉, pos<math>pos</math>는 sequence에서 단어의 위치이고 해당 단어는 i<math>i</math>에 0부터 dmodel2<math>dmodel2</math>까지를 대입해 dmodel<math>dmodel</math>차원의 positional encoding vector를 얻게 됩니다. k=2i+1<math>k=2i+1</math>일 때는 cosine 함수를, k=2i<math>k=2i</math>일 때는 sine 함수를 이용합니다. 이렇게 positional encoding vector를 pos<math>pos</math>마다 구한다면 비록 같은 column이라고 할지라도 pos<math>pos</math>가 다르다면 다른 값을 가지게 됩니다. 즉, pos<math>pos</math>마다 다른 pos<math>pos</math>와 구분되는 positional encoding 값을 얻게 되는 것입니다.PEpos=[cos(pos/1),sin(pos/100002/dmodel),cos(pos/10000)2/dmodel,...,sin(pos/10000)]<math>PEpos=[cos(pos/1),sin(pos/100002/dmodel),cos(pos/10000)2/dmodel,...,sin(pos/10000)]</math>이때 PEpos+k<math>PEpos+k</math>는 PEpos<math>PEpos</math>의 linear function으로 나타낼 수 있습니다. 표기를 간단히 하기 위해 c=100002idmodel<math>c=100002idmodel</math>라고 해봅시다. sin(a+b)=sin(a)cos(b)+cos(a)sin(b)<math>sin(a+b)=sin(a)cos(b)+cos(a)sin(b)</math>이고 cos(a+b)=cos(a)cos(b)−sin(a)sin(b)<math>cos(a+b)=cos(a)cos(b)−sin(a)sin(b)</math> 이므로 다음이 성립합니다.PE(pos,2i)=sin(posc)<math>PE(pos,2i)=sin(posc)</math>PE(pos,2i+1)=cos(posc)<math>PE(pos,2i+1)=cos(posc)</math>PE(pos+k,2i)=sin(pos+kc)=sin(posc)cos(kc)+cos(posc)sin(kc)=PE(pos,2i)cos(kc)+cos(posc)sin(kc)<math>PE(pos+k,2i)=sin(pos+kc)=sin(posc)cos(kc)+cos(posc)sin(kc)=PE(pos,2i)cos(kc)+cos(posc)sin(kc)</math>PE(pos+k,2i+1)=cos(pos+kc)=cos(posc)cos(kc)−sin(posc)sin(kc)=PE(pos,2i+1)cos(kc)−sin(posc)sin(kc)<math>PE(pos+k,2i+1)=cos(pos+kc)=cos(posc)cos(kc)−sin(posc)sin(kc)=PE(pos,2i+1)cos(kc)−sin(posc)sin(kc)</math>이런 성질 때문에 model이 relative position에 의해 attention하는 것을 더 쉽게 배울 수 있습니다.논문에서는 학습된 positional embedding 대신 sinusoidal version을 선택했습니다. 만약 학습된 positional embedding을 사용할 경우 training보다 더 긴 sequence가 inference시에 입력으로 들어온다면 문제가 되지만 sinusoidal의 경우 constant하기 때문에 문제가 되지 않습니다. 그냥 좀 더 많은 값을 계산하기만 하면 되는거죠.Trainingtraining에 사용된 기법들을 알아보겠습니다.Optimizer많이 쓰이는 Adam optimizer를 사용했습니다.특이한 점은 learning rate를 training동안 고정시키지 않고 다음 식에 따라 변화시켰다는 것입니다.lrate=d−0.5model⋅min(step_num−0.5,step_num⋅warmup_steps−1.5)warmup_step<math>warmup_step</math>까지는 linear하게 learning rate를 증가시키다가, warmup_step<math>warmup_step</math> 이후에는 step_num<math>step_num</math>의 inverse square root에 비례하도록 감소시킵니다.이렇게 하는 이유는 처음에는 학습이 잘 되지 않은 상태이므로 learning rate를 빠르게 증가시켜 변화를 크게 주다가, 학습이 꽤 됐을 시점에 learning rate를 천천히 감소시켜 변화를 작게 주기 위해서입니다.RegularizationResidual ConnectionIdentity Mappings in Deep Residual Networks라는 논문에서 제시된 방법이고, 아래의 수식이 residual connection을 나타낸 것입니다.yl=h(xl)+F(xl,Wl)<math>yl=h(xl)+F(xl,Wl)</math>xl+1=f(yl)<math>xl+1=f(yl)</math>이때 h(xl)=xl<math>h(xl)=xl</math>입니다. 논문 제목에서 나온 것처럼 identity mapping을 해주는 것이죠.특정한 위치에서의 xL<math>xL</math>을 다음과 같이 xl<math>xl</math>과 residual 함수의 합으로 표시할 수 있습니다.x2=x1+F(x1,W1)<math>x2=x1+F(x1,W1)</math>x3=x2+F(x2,W2)=x1+F(x1,W1)+F(x2,W2)<math>x3=x2+F(x2,W2)=x1+F(x1,W1)+F(x2,W2)</math>xL=xl+L−1∑i=1F(xi,Wi)<math>xL=xl+∑i=1L−1F(xi,Wi)</math>그리고 미분을 한다면 다음과 같이 됩니다.σϵσxl=σϵσxLσxLσxl=σϵσxL(1+σσxlL−1∑i=1F(xi,Wi))<math>σϵσxl=σϵσxLσxLσxl=σϵσxL(1+σσxl∑i=1L−1F(xi,Wi))</math>이때, σϵσxL<math>σϵσxL</math>은 상위 layer의 gradient 값이 변하지 않고 그대로 하위 layer에 전달되는 것을 보여줍니다. 즉, layer를 거칠수록 gradient가 사라지는 vanishing gradient 문제를 완화해주는 것입니다.또한 forward path나 backward path를 간단하게 표현할 수 있게 됩니다.Layer NormalizationLayer Normalization이라는 논문에서 제시된 방법입니다.μl=1HH∑i=1ali<math>μl=1H∑i=1Hail</math>σl= ⎷1HH∑i=1(ali−μl)2<math>σl=1H∑i=1H(ail−μl)2</math>같은 layer에 있는 모든 hidden unit은 동일한 μ<math>μ</math>와 σ<math>σ</math>를 공유합니다.그리고 현재 input xt<math>xt</math>, 이전의 hidden state ht−1<math>ht−1</math>, at=Whhht−1+Wxhxt<math>at=Whhht−1+Wxhxt</math>, parameter g,b<math>g,b</math>가 있을 때 다음과 같이 normalization을 해줍니다.ht=f[gσt⊙(at−μt)+b]<math>ht=f[gσt⊙(at−μt)+b]</math>이렇게 한다면, gradient가 exploding하거나 vanishing하는 문제를 완화시키고 gradient 값이 안정적인 값을 가짐로 더 빨리 학습을 시킬 수 있습니다.(논문에서 recurrent를 기준으로 설명했으므로 이에 따랐습니다.)DropoutDropout: a simple way to prevent neural networks from overfitting라는 논문에서 제시된 방법입니다.dropout이라는 용어는 neural network에서 unit들을 dropout하는 것을 가리킵니다. 즉, 해당 unit을 network에서 일시적으로 제거하는 것입니다. 그래서 다른 unit과의 모든 connection이 사라지게 됩니다. 어떤 unit을 dropout할지는 random하게 정합니다.dropout은 training data에 overfitting되는 문제를 어느정도 막아줍니다. dropout된 unit들은 training되지 않는 것이니 training data에 값이 조정되지 않기 때문입니다.Label SmoothingRethinking the inception architecture for computer vision라는 논문에서 제시된 방법입니다.training동안 실제 정답인 label의 logit은 다른 logit보다 훨씬 큰 값을 갖게 됩니다. 이렇게 해서 model이 주어진 input x<math>x</math>에 대한 label y<math>y</math>를 맞추는 것이죠.하지만 이렇게 된다면 문제가 발생합니다. overfitting될 수도 있고 가장 큰 logit을 가지는 것과 나머지 사이의 차이를 점점 크게 만들어버립니다. 결국 model이 다른 data에 적응하는 능력을 감소시킵니다.model이 덜 confident하게 만들기 위해, label distribution q(k∣x)=δk,y<math>q(k∣x)=δk,y</math>를 (k가 y일 경우 1, 나머지는 0) 다음과 같이 대체할 수 있습니다.q′(k|x)=(1−ϵ)δk,y+ϵu(k)<math>q′(k|x)=(1−ϵ)δk,y+ϵu(k)</math>각각 label에 대한 분포 u(k)<math>u(k)</math>, smooting parameter ϵ<math>ϵ</math>입니다. 위와 같다면, k=y인 경우에도 model은 p(y∣x)=1<math>p(y∣x)=1</math>이 아니라 p(y∣x)=(1−ϵ)<math>p(y∣x)=(1−ϵ)</math>이 되겠죠. 100%의 확신이 아닌 그보다 덜한 확신을 하게 되는 것입니다.Conclusiontransformer는 recurrence를 이용하지 않고도 빠르고 정확하게 sequential data를 처리할 수 있는 model로 제시되었습니다.여러가지 기법이 사용됐지만, 가장 핵심적인 것은 encoder와 decoder에서 attention을 통해 query와 가장 밀접한 연관성을 가지는 value를 강조할 수 있고 병렬화가 가능해진 것입니다.Referencehttp://www.whydsp.org/280http://mlexplained.com/2017/12/29/attention-is-all-you-need-explained/http://openresearch.ai/t/identity-mappings-in-deep-residual-networks/47https://m.blog.naver.com/PostView.nhn?blogId=laonple&logNo=220793640991&proxyReferer=https://www.google.co.kr/https://www.researchgate.net/figure/Sample-of-a-feed-forward-neural-network_fig1_234055177https://arxiv.org/abs/1603.05027https://arxiv.org/abs/1607.06450http://jmlr.org/papers/volume15/srivastava14a.old/srivastava14a.pdfhttps://arxiv.org/pdf/1512.00567.pdf
조회수 2730

스타트업 주식과 삼성전자 주식은 뭐가 다를까?

그투그 #6 스타트업 주식은 삼성전자 주식과 뭐가 다를까?주변에 주식형 크라우드 펀딩 한번 해보고 싶다는 분들이 많습니다. 그런데 일반적으로 주식하면 딱 떠오르는 코스피 주식 거래와 뭐가 어떻게 다른지 모르겠다고 하세요. 그래서 이번 주에는 주식형 크라우드 펀딩의 기본 of 기본을 알려드립니다.신주 발행 VS 구주매출: 새로 만들어 팔거나 가지고 있는 걸 팔거나주식형 크라우드 펀딩에 투자하는 것은 우리가 일반적으로 알고 있는 주식투자와 조금 달라요.구주매출은 기존 주주가 이미 가지고 있던 지분 일부를 일반인들에게 파는 행위를 말합니다. 기존 주주는 주식을 팔아 투자금을 회수하고, 새로운 주주는 기존 주주가 가졌던 지분과 의결권 등의 권리를 양도받는 거예요. 코스피, 코스닥 시장에서 투자자들끼리 주식을 사고파는 행위가 대표적인 구주매출입니다.신주 발행은 새롭게 주식을 발행해 투자자를 모으는 것을 말합니다. 이때 확보된 투자금은 회사의 경영활동을 위해 쓰입니다. 와디즈 플랫폼에서는 초기 기업이 일반 대중을 대상으로 신주를 발행하여 기업 활동에 필요한 자본금을 마련합니다. 투자자는 이 기업이 성장해서 기업가치가 오르면, 구주매출 등을 통해 이익을 실현할 수 있겠죠.그래서 주식형 크라우드 펀딩을 진행하는 기업의 투자설명서에는 다음과 같이 새로운 주식 발행에 관련된 내용이 포함되어있어요. 용어가 복잡하고 어려우니 실제 투자설명서의 일부를 가져와서 하나하나 볼까요?1) 액면가와 발행가액 : “이 주식 얼마에요?”액면가는 주식을 처음 발행할 때 주권 표면에 쓰여 있는 금액입니다. 우리나라에서 발행되는 주식의 액면가는 500원이나 5,000원이 제일 많아요.발행가액은 발행된 주식을 투자자가 처음 인수할 때의 가격을 말해요. 액면가가 500원이라도 8,000원에 인수하면 발행가액은 8,000원이 됩니다. 투자자들은 보통 그 기업의 주당 가치가 앞으로 8,000원보다 높아질 거라고 생각하기 때문에 액면가보다 비싸게 주식을 인수합니다. 그래서 일반적으로 발행가액이 액면가보다 더 높죠.발행가액에 모집수량을 곱하면 모집총액이 됩니다. 쉽게 말해 기업이 새롭게 조달하는 투자금을 말하죠. 모집총액이 회사의 투자 후 기업가치(포스트 밸류)에서 차지하는 비율이 신주 발행 지분율이고요.2) 최소 청약단위와 청약증거금: “8,000원만 있으면 되나요?”제가 이 회사에 투자하기로 했다면 최소 청약단위인 25주를 투자해야 합니다. 발행가액은 8,000원에 25주를 곱하면 최소 20만 원이 필요하죠.저는 30주를 투자하려고 합니다. 주식을 사기 위해 계약금 형식으로 내야 하는 청약증거금이 청약금액의 100%이기 때문에 24만 원이 있어야 하겠죠.신주의 배정 방법이 금액 순익 아니라 청약 순인 경우가 대부분이기 때문에 청약 기간이 남았더라도 모집금액의 100%가 다 차기 전에 빠르게 투자해야 합니다. 신주의 배정 방법이 금액 숙이면 청약 순서와 관계없이 많은 금액을 투자한 사람이 투자자로 배정받게 됩니다.3) 주권발행일과 주권입고일: “저는 언제부터 주주가 되나요?” 빠르게 투자에 성공했다 하더라도 바로 주주가 되는 건 아닙니다. 청약 종료 후 7 영업일이 지나야 투자자 배정이 끝납니다. 8 영업일째 되는 날엔 기업에 투자금(모집총액)이 전달됩니다. 그리고 그 다음날 주식이 발행됩니다. 주식이 발행되는 날(주권발행일)부터 주주의 권리도 생겨납니다. 증권계좌에서 투자 내역을 보려면 시간이 조금 더 필요합니다. 청약 종료 후 21 영업일 이내로 주권이 입고됩니다(주권 입고일). 이때부터 증권계좌에서 주식을 확인할 수 있어요.4) 배당기산일: “배당은 언제부터 받나요?”또 하나 봐야 할 것은 신주의 배당기산일입니다. 배당기산일은 배당금이 계산되는 최초의 일자를 말합니다. 보통 배당은 한 해를 기준으로 이루어지죠. 작년부터 이 회사의 주식을 가지고 있던 기존 주주들은 연말에 2018년 1월 1일부터 2018년 12월 31일까지에 해당하는 배당을 받게 되겠죠.그런데 이 회사가 9월 8일에 새로운 주식을 발행하게 되면 새로운 주주들에게 어떻게 배당을 해야 할까요? 기존 주주들과 같게 배당을 할지, 아니면 주주가 된 시점부터 계산해서 배당할지 미리 배당기산일을 정해야 합니다.이 기업의 경우 배당기산일이 2018년 1월 1일이니 새로운 주주들도 기존 주주들과 똑같이 1년 치 배당을 받게 됩니다.새롭게 발행된 주식이 보통주 면 1주에 1 의결권을 받게 되지요. 하지만 이 회사처럼 우선주를 발행하는 경우, 의결권이 없는 대신 보통주에는 없는 다른 권리들이 주어지는 경우가 많아요. 그 자세한 내용은 투자설명서 내에 <우선주의 주요 권리> 항목에서 볼 수 있습니다. 우선주에 투자하려고 한다면, 내가 어떤 권리를 행사할 수 있는지 하나하나 잘 따져보고 투자해야겠죠? 다음 글에서 이어서 알려드릴게요.글 김영아와디즈의 막내 투자 콘텐츠 디렉터(CD)입니다. 우리의 작은돈이 필요한 곳에 모여 세상을 바꾸는 꿈을 꾸고 있어요. 아 물론 돈도 벌면서요. 더 많은 ‘우리’에게 크라우드 펀딩을 알리기 위해 어렵고 복잡한 투자 이야기를 쉽고 재미있게 풀어내는 일을 합니다.그림 이윤경와디즈의 브랜드 디자이너입니다. 좋은 '사람' 와디즈가 좋은 '브랜드'로 무럭무럭 자라나도록 물을 주고 있어요. 더 많은 사람들의 시작을 돕기를, 그리고 더 재미있는 세상을 만들어 가기를 기대하고 있습니다.#와디즈 #금융지식 #서비스소개
조회수 1167

스타트업에게 비전이란?

먹고사는 것도 바쁜 스타트업에게 비전(vision)이란 어떤 의미가 있을까? 사실 파펨(paffem)에게도 지금 당장 비전이 있다고 해서, 지금 진행하고 있는 향기 사업이 더 잘될 것이라는 보장도 없다. 그런데 왜 이 작은 회사가 비전이라는 것을 생각하게 될까? 물론 정확한 답을 드릴 수는 없겠지만.. 내가 생각하는 이유로는 1) 스스로의 존재에 대한 이유예전 경영학과 수업에서 주식회사의 존재 이유는 "주주가치의 극대화"라는 내용을 들었던 기억이 나는데, 물론 맞는 말이지만.. 누군가에게 돈을 벌어주는 것 외에도, 이 기업이 세상에 존재하는 이유가 없다면 그것 또한 공허한 일이다. 엄청난 부를 만들어냈지만, 내가 이 세상에 그 부를 가지고 어떤 의미 있는 일을 할 수 있을까?라는 생각이 없다면... 그것 또한 비참할 듯2) 하루하루 0.1mm 라도 성장하기 내가 지금 어디로 가고 있는지를 알고 한걸음을 떼는 것과, 그냥 일단 한걸음을 떼는 것에는 큰 차이가 있다는 생각을 가지고 있다. 머릿속에 내가 가야 할 방향이 있다면.. 아주 조금이라도 그 고민이 하루의 노력에 묻어날 것이고, 또한 그렇게 생각하는 사람 주변에는 그것을 도와줄 운과 사람, 기회가 생겨나기 마련.(아래의 수식은 그것을 너무나도 잘 보여주는 것이라 나도 한번 인용해 봄)1.01^365=37.80.99^365=0.033) 꿈이 없다면.. 갈 길이 너무 힘들지 않을까?같은 스타트업 내에서 공유되고 공감하는 꿈이 있다면, 그 길이 힘들더라도 서로 응원해 가면서 갈 수 있으리라는 생각. 희망이 있는 사람들에게서는 에너지가 느껴질 수밖에 없고, 그것을 만들기 위해 여러 가지로 고민을 하기 때문. 그런 차원에서 파펨은.... 파펨은 "후각의 객관화"라는 비전을 가지고 있습니다. 말이 조금 어려울 수도 있는데.. 후각이라는 영역은 인간의 인지의 10~15% 정도를 차지하기에 중요도가 높지 않아, underdeveloped 될 수밖에 없었고, 그것 외에도 후각의 영역은 객관적으로 표현이 어렵다는 점도 크다. 즉, 난이도가 높다는 것인데..  Color는 채도와 명도, 그리고 3 원색의 조합을 통해 객관적으로 설명할 수 있고, 청각의 경우는 인간들이 다양한 기준(길이, 높낮이, 진동폭 등)으로 이미 표준화가 진행되어 있는 것을 봐도 잘 알 수 있을 듯. 몇 년 전 Google이 Google Nose beta 가 출시되었음을 알렸는데, 검색한 키워드의 냄새가 랩탑, 스마트 폰 등을 통해서 확인이 가능하다는 것이었음. 난 이게 만우절 농담인지 모르고 (ㅡㅡ;;), 진짜 세상이 많이 발전했구나 역시 구글!!!...이라고 생각하였으나.. 너무나도 진지한 만우절 장난이었다는.... You tube 동영상  (꼭 한번 보시길.. 구글이 어찌나 진지하게 이 동영상을 만들었는지 ㅜㅜ)  장난이었지만, 당시에 그 영상을 보면서.. 저런 기술이 있으면 좋기는 하겠네..라는 생각을 하게 되었고, 이제는 내가 그것을 만들어 보겠다는 vision을 가진 startup을 만들게 되었다는 사실이 재미있다. 물론 파펨이 당장 이러한 기술을 만들겠다는 것은 아니고.. (아니.. CAN NOT 이 더 정확한 표현이겠네요 ^^;;)하지만 우리가 가야 할 길은 저 방향이기 때문에 차근차근 만들어가다 보면, 같은 고민을 하고 있는 회사나 친구를 만날 것이고, 또 함께 고민해 나갈 수 있을 것이라는 생각이 든다. (이 글을 보고 또 누군가에게 어떤 도움을 받을 수 있을지 누가 알겠나..) 물론 이 세상 어느 누군가는 이러한 것들을 이미 실행하고 있을지도 모른다. TED에서 이런 동영상을 본 적이 있다. 제목은 The Science of Scent by Luca Turin (2005)2005년에 제작된 것이니, 꽤 오래전 것이고 아마도 그 이후로 엄청난 발전이 있었을 것으로 생각되는데..  동영상 15분을 투자하기 어려운 분을 위해 간략히 설명하면.. 각각의 물질에서 냄새가 다른 이유는 1) 분자의 모양이 달라서.. 혹은 2) 분자의 vibration(진동) 이 다르기 때문이라고 설명하는데.. 발표를 하는 Luca Turin이라는 분은 분자의 진동으로 냄새의 차이를 설명한다. 놀라운 것은, 이 사람의 회사에서 이러한 분자의 진동을 계산하여 세상에 있는 물질의 냄새와 거의 비슷한 것을 직접 만들어 냈다는 것이다. 이 기술이 더 발전하게 된다면, 냄새를 만들어 내는 것이 향을 가지고 있는 물질에서 뽑아내는 것이 아니라, 그냥 분자를 합성하여 만들 수 있다는 것이다. 파펨의 조금 더 long-term  비전도...냄새를 생성해 내는 tool을 만들자.이를 통해.. 향후 VR/AR 영역에서 체험자가 시각/청각 정보뿐만이 아니라 후각을 통해 reality를 높일 수 있는 수단으로 활용될 수 있을 것이다.이를 이해서는 먼저 후각의 객관화 작업이 필요하다.그렇다면 하늘에 달려 있는 비전까지 가지 위해서 파펨은 지금 무엇을 하고 있나? 조금은 다르다고도 할 수 있고.. 아니면 많이 다르다고도 할 수 있다. 파펨은 현재 fragrance commerce business를 하고 있다. 하지만, 동시에 파펨은 이렇게 출시한 향기들을 성분과 image 등으로 표현하는 작업을 하고 있으며, 고객의 취향을 파악하고 향수를 추천해 줄 수 있는 알고리즘, PerfumeTeller 의 version 1을 출시하였다. 비전이 너무 tangible 한 것도 문제일 수 있겠고(금방 달성 가능하니..) 너무 뜬구름을 잡아서도 안 될 것이며, 비전을 향해서.. 꾸준히 가다 보면 닿을 수 있는 것, 그것이 비전이라는 생각이다. 추가로 아직은 파펨이 생각하고 있는 그 정도의 수준은 아니지만... 최근 기사 검색에서 Feelreal (feelreal.com)이라는 회사의 기사를 보았는데, 이 회사도 VR에서 후각을 체험할 수 있는 device를 만들고 있다는 것을 알게 되었다. 이런!! 우리가 먼저 해야 하는데...라는 생각도 1초 정도 들었지만, 이런 실천을 하고 있다는 기업을 만난다는 것 자체가 반가운 일!! ^^;이 회사의 제품도 아직은 pre-order 단계이고, 게다가 아직은 수준이 높지는 않은데, 몇몇 가지 향기 ample이 들어있는 것을 helmet에 장착하고 이와 관련된 화면이 나올 때를 프로그램으로 setting 해두면, 그때 그 향이 나오는 방식이다. 즉, 아직 높은 수준을 구현했다기보다는.. 4DX 극장의 장비 수준을 개인용으로 만든 정도라고나 할까? 이전 구글 동영상 정도의 제품은 언제쯤이나 출시될 수 있을까? 이 회사도 아직은 초-초보적인 단계라고 할 수 있겠다. 하지만, 시각과 청각을 카메라와 마이크에 담아서 다른 곳으로 보내는 기술이 이미 충분히 발전한 만큼, 후각의 영역에서도 이러한 발전이 속속 이루어질 것이라는 기대를 해본다. 물론 우리는 아직 시작한 지 1년도 되지 않았고, 당장은 향기 관련 제품을 만드는 commerce에 집중하고 있다. 그렇다.. 지금 당장 뭣이 중한데?라는 질문을 받는다면.. 먹고사는 것이 중하지요!라는 대답을 할 수밖에 없다. 하지만.. No Rush! 천천히 만들어가고 그 과정을 즐기는 것이 또 중허지 않겠는가? #파펨 #스타트업 #창업가 #창업자 #마인드셋 #인사이트 #비전 #목표

기업문화 엿볼 때, 더팀스

로그인

/