스토리 홈

인터뷰

피드

뉴스

조회수 961

아마존 성공사례 3번째 이야기

안녕하세요 대한민국 셀러들의 성공적인 아마존 진출을 도와주는 컨설팅 회사이자 대행사인 컨택틱의 이이삭 대표입니다.‘주변에서는 다 아마존 잘 되는 것 같은데 왜 나만 잘 안될까?’ 이런 생각 해보신 적 있으신가요? 요즘엔 아마존에 대한 온라인 강의가 심심치 않게 보이고 있습니다. 다 각각의 특징을 가지고 ‘이렇게 저렇게 하면 아마존에서 성공할 것이다’라고 얘기를 합니다. 유튜브 동영상 제목도 굉장히 이목을 끄는 느낌의 “가만히 앉아서 한 달에 5만 불 버는 방법” 이렇게 홍보를 하고 있습니다. 이러한 모습들이 거짓이라고 하진 않습니다. 오히려 그렇게 본인의 노하우를 공개하는 분들은 실제로 본인의 아마존 판매가 성공적인 경우일 확률이 높습니다. 하지만 제가 꼭 말씀드리고 싶은 것은, ‘아마존에서 성공하는 요인은 정해진 1가지가 아니다’라는 것입니다.아마존에서 성공하는 요인은 정말 셀 수도 없이 다양합니다. 가장 중요할 수 있는 면밀한 시장 조사 외에도, 양질의 저가 상품 소싱, 빠른 재고 입고 프로세스, 고객들을 현혹시키는 copywriting, 모든 경우의 키워드 인덱싱, 상위 노출, 등등 목록은 끝이 없습니다. 그중에 하나가 바로 오늘 소개해드릴 ‘프라임 데이를 공략하는 것’입니다.프라임 데이가 무엇인지 모르는 분들을 위해 간단하게 프라임 데이에 대한 개념 소개부터 하겠습니다. 매거진사 Forbes에서는 프라임 데이를 이렇게 표현했습니다 “Prime Day is a time Amazon Prime members can enjoy lightning deals, price cuts, and promotions.” Forbes에서 언급한 대로, 프라임 데이는 블랙프라이데이, 사이버먼데이, 크리스마스, 새해 쇼핑과 같이 셀러들이 다양한 할인 행사를 진행하여 아마존 프라임 멤버십 (연회원 구독권)을 가지고 있는 아마존 회원들이 그 할인을 적극적으로 누릴 수 있게 만든 하나의 행사일입니다.프라임 데이가 왜 생겼고, 왜 하필 매년 7월 중에 진행할까요? 이 부분에 대한 여러 의견이 있습니다만, 제 생각에는 아무래도 일 년의 정확히 중간이 되는 7월에는 원래 딱히 이렇다 할 행사가 원래는 없었습니다. 1월에는 New Year’s Shopping, 2월에는 Valentine, 3월에는 St. Patrick’s Day, 5월에는 어머니날, 6월에는 아버지날, 8월은 back-to-school, 등등 전부 특성이 있었지만, 7월에는 매출이 부진했었던 것입니다. 아마존 입장에서는 그 인지도를 활용하여, ‘어떻게 해야 일 년 내내 매출이 꾸준하게 잘 나오게 할 수 있을까’를 고민했던 것 같습니다. 그리하여 기존에 오히려 매출이 한참 저조했던 7월을 오히려 혁신적인 매출 신장의 날로 키워낸 아마존의 전략이라고 생각합니다.프라임 데이는 탄생과 함께 엄청난 성장을 했습니다. 이제는 Q4 시즌의 주요 holiday와 비교했을 때 전혀 뒤처지지 않을 정도의 굉장한 매출 규모를 자랑하는 날입니다. 아마존은 이 날을 아마존에서 판매하는 3P 셀러들에게 매출을 매우 끌어올릴 수 있는 하나의 기회로도 초대를 하고 있습니다. 이번 포스팅은 그런 프라임 데이를 제대로 공략하여 매출이 2000% 급증한 저희 고객사의 사례를 예시로 들고, 이게 얼마나 아마존 성공의 요인 중에 중요한 자리로 잡고 있는지를 여러분들께 공유하고자 합니다.아래에 보여드릴 고객사는 연간 꾸준하게 월평균 매출이 $8,000 ~ $15,000 수준으로 아마존 판매를 진행하고 있었습니다. 많은 매출은 아니지만, 그래도 본업은 국내 사업이고, 아마존은 해외 고객들에게 접근하기 가장 쉽고 좋은 플랫폼이기 때문에 거기에 의미를 두는 고객사입니다.2017년 1년간의 매출 그래프입니다. 위에서 보이듯이 연중 굉장히 일정한 수준으로 판매가 되고 있는 것을 확인할 수 있습니다. 그러다가 11월 24일에 한 번 반짝 한 기간이 있었는데, 이 날은 컨택틱과 함께 특별한 프로모션을 진행한 기간이었기 때문에 예외로 두겠습니다.이번엔 2018년 1월부터 9월 20일(오늘)까지의 매출 그래프를 살펴보겠습니다.우선 2017년 1월부터 12월까지의 매출이 $64,837이었습니다. 다음은 2018년 1월부터 9월 20일까지의 매출이 $68,992입니다. 이미 작년 매출을 뛰어넘었죠? 아직 정말 Sales의 꽃인 Q4 시즌이 시작하지도 않았는데도 말이죠! 이게 가능한 것이 컨택틱에서 항상 이야기하는 “아마존은 장기전이다. 꽃에게 물을 주듯이 아마존 사업도 지극정성을 오랜 기간 들이다 보면 성장하게 되어있다”라는 교훈을 입증한다고 생각합니다.어쨌거나, 위에서 특징적인 모습이 눈에 띕니다. 분명히 작년 이맘때에는 이런 모습이 없었는데, 갑자기 이렇게 하루에 매출이 뛴 이유가 무엇일까요? 네, 날짜를 보면 정확히 알 수 있습니다. 바로 PRIME DAY를 정확하게, 제대로 공략했기 때문입니다. 7월 16일, 평소 매출의 2000% 성장. 이런 일이 발생한 것은 절대로 우연이 아닙니다. 해당 고객사는 이전부터 아주 치밀하게 컨택틱의 자문을 통해 프라임 데이를 준비했고, 당일이 되어서는 그 효과가 그대로 매출로 나타나게 된 것입니다.여러분들도 아마존이라는 황금 시장에 진출한다면, 막연하게 상품을 등록하고 마는 것이 아니라, 정확한 공략법을 가지고 시장에 진입을 해야 합니다. 아마존을 통해 사업이 비약적으로 성장하는 회사들 많습니다. “기회의 아마존...” 그 기회를 사로잡기 위해서는  반드시 아마존 시장에 대한 올바른 이해와 통찰력 있는 접근을 통해서만 빛을 보게 됩니다. 컨택틱은 글로벌셀러 창업연구소와 협력하여 이런 귀한 지식을 여러분들께 숨김없이 온 오프라인 교육을 통해 공유하고 있습니다. 점점 수강생들이 많아지고 있는 가운데, 여러분들도 꼭 아마존에서 대박을 치는 백만 달러 셀러가 되길 기원합니다!오프라인 아마존 입문 과정오프라인 아마존 기초/심화 과정온라인 아마존 입문 과정그럼 오늘도 즐거운 글로벌 셀링 되세요!감사합니다.컨택틱  서울특별시 강남구 강남대로 62길 11, 8층 (역삼동, 유타워)   대표 전화: 02-538-3939   이메일: [email protected]   홈페이지: https://www.kontactic.com 네이버 블로그: https://blog.naver.com/kontactic  카카오 브런치: https://brunch.co.kr/@allaboutamazon
조회수 1171

스타트업 CEO는 마당쇠!

전시회장의 부스가 아니라, 복도를 돌아다니며, 처음 본 얼굴을 맞이하면서 찌라시를 건네는 것을 부끄러워하거나 불편해하면 안 된다. 업무를 하고 있다면, 그것은 어느 장소에서건 기업을 대표하고 있는 것이다.그렇게, 중견기업의 CEO와 등기이사는 전시회장에서 피켓을 들고, 찌라시를 배포했다. 그것이 스타트업의 C level이 해야 할 일이다.언론에서 포장된 멋진 자리에서 강연을 하거나, 고급스러운 자동차를 타고 내리는 모습, 회의실에서 직원들을 질타하면서 진두지휘하는 모습, 고객과 투자자에게 멋지게 이야기하는 모습만 상상하고 폼만 잡고 있다면, 진정한 스타트업의 CEO가 되는 것은 어렵다.필자의 오랜 지인이자, 17년 차 중견 기업의 CEO가 중국 북경 전시회에 참가해서 기업의 홍보 전단지인 일반적으로 부르는 찌라시를 말도 안 통하는 중국 고객들에게 배포하고 있는 모습이다.그냥, 사진 한 장 찍자고 찍은 모습이 아니다. 4일 동안 북경 전시회 내내 해당 기업의 CEO는 자기 회사 전단지를 미래의 고객과 미래의 대리상이 될만한 잠재 고객을 위해서 자신이 할 수 있는 최선의 일을 4일 내내 진행했다. ( 필자인 나도 최대한 필요한 만큼 피켓을 들었다. 내 개인 업무와 다른 비즈니스 업무를 위한 미팅을 제외하고는 피켓을 들고, 찌라시를 배포하는 업무를 같이 진행했다. )물론, 해당 전시회를 참가하면서 중국 출신의 중국 지사의 멤버와 한국 본사에 고용한 중국 담당 영업 멤버도 데리고 갔으며, 현지에서 고용된 통역도 있었다.중국어가 가능한 직원들은 회사 부스에서 미래의 고객이 될 수 있는 중국 사람들과의 연결을 위해서 고객응대를 해야 해서 중국어가 가능한 멤버만 부스에서 일을 했다.단지, 중요한 임원급의 결정이 필요한 미팅에만 임원들은 미팅에 참여했다. 그래서, 남는 시간이 많았다. 이 남는 시간을 CEO와 이사는 할 수 있는 일을 찾아야 했다.중국어에 능숙하지 못한 사진의 CEO와 해당 기업의 등기임원인 나는 중국어를 거의 못하는 관계로 둘이 나가서 전시회에서 찌라시를 돌렸다. 그리고, 나는 찌아시를 돌리는 친구인 CEO를 돕기 위해서 부스에서 좀 멀리 떨어진 장소까지 나와서 피켓을 들었다.내가 직접 찍은 사진이다. 중국의 대리상을 구한다는 문구가 적혀있다.해당 기업의 가장 높은 직위인 CEO와 등기 이사이지만, 해당 전시회에서 중요한 비즈니스 업무를 하는 시간을 제외한다면, 남는 시간은 해당 기업을 위해서 부스에 참여하고 있는 동안 할 수 있는 부스러기와 같은 일을 찾아서 해야 한다.그것이 스타트업과 중견기업의 임원들의 숙명이며, 매우 당연하게 해야 할 일이다.젊은 스타트업을 창업하는 친구들은 멋지고 폼나고, 편한 일을 하기 위해서 스타트업을 창업한다면, 절대 그런 일은 존재하지 않을 것이라고 이야기한다. 기업이란 피를 말리는 생존경쟁이며, 그 생존을 위해서 할 수 있는 일은 무엇이든 찾아서 해야 한다고.물론, 기업의 CEO와 이사라는 직함으로 거들먹 거리며, 쉽고, 편하고, 폼나는 일만 하는 사람들이 있을 수 있다. 하지만, 그런 기업의 운명이란 뻔한 것이다. 처절한 생존경쟁이 아니라, 특정 임원의 인맥이나 연줄, 집안일의 능력으로도 기업은 운영이 가능하지만, 과연 그것이 기업일까?중소기업이나 스타트업의 CEO는 기업이 현시점, 내가 있는 장소에서 필요한 일이라면, 그 일이 크던 작던, 누군가는 해야 할 일이다. 그것을 찾아서 하는 것. 그것이 CEO와 C Level들이 해야 할 일이다.스타크업의 CEO가 되려면 내가 운영하는 기업에 필요한 아주 작은 부스러기 같은 일이라도 내가 찾아서 몸소 실천하면 된다.찾아진 그 일은 자기 자신의 일이 된다. 그리고, 해당 업무를 할 직원이나 롤이 없다면 C level은 해당 업무를 수행한다. 정규화되고 필요하다는 업무가 결정된 직원은 자기에게 충실하게 부여된 업무와 롤에 맞추면 되는 것이다. 그것을 실천하는 것이 직원들 앞에서 기업을 리딩하는 것이라고 이야기하고 싶다.
조회수 959

듣기에 그럴싸한 목표가 독이다

내가 하고싶은 행동의 첫스텝이 목표다매년 새해 목표를 세울때면 스스로 되뇌이는 말이다. 누구나 새해 목표가 있다. 그리고 목표들은 각양각색이다. 개중에는 높은 난이도 때문에 영웅적으로 들리는 목표가 있다. 가령 회사를 차리겠다거나, 책을 쓰겠다는 목표들이 그렇다. 이런 목표는 듣는 사람들의 탄성을 자아낸다. 나는 뭘하고 사는지 돌아보게 만들기도 하는 목표다. 반면 소소한 목표도 있다. 그저 건강하기만 하면 된다거나 회사에서 잘 버티겠다는 식의 목표가 나에게는 그렇다. 이런 목표는 경우에 따라 내심 말하는 사람의 소심함을 곱씹게 할 때도 있다.대학때까지 목표는 굉장히 자율적인 것이었다. 하지만 회사에서는 그렇지 않았다. 목표는 공적인 약속이고 매월 지표가 되어 돌아온다. 그럴싸한 목표와 그림을 안고 새해를 시작했지만 연말에 빈손으로 회사에 보고를 한 적도 있다. 반면 이것도 계획인가 싶은 정도의 발전없는 목표를 가지고도 조금의 성과를 이루어내 내실있는 연말을 맞은 적도 있다. 결과가 중요하다. 하지만 그렇다고 목표를 100% 달성할 수 있는 낮은 수준의 목표를 선정하자는 것은 아니다. 결과보다 더 중요한 것이 실행이라고 믿기 때문이다. 실행을 해야 성공도 실패도 한다. 가장 나쁜 목표는 실행의 가능성이 없는 듣기 그럴싸한 목표들이다. 누구나 한번쯤은 이런 목표를 세워봤을 것이다.- 매일 1시간씩 책읽기- 매일 팔굽혀펴기 100개하기흔한 목표다. 하지만 달성하는 사람은 손에 꼽는다. 대부분은 3일을 넘기지 못한다. 그 이유는 그럴싸한 결과 목표가 갖는 낮은 실행력 때문이다. 나는 새해 목표를 이렇게 세운다. 매일 팔굽혀펴기 50개가 목표라면, 나의 목표는 매일 엎드리기다. 매일 책 50쪽 읽기가 목표라면, 내 목표는 매일 책펴기다. 업무적으로 마케팅 아티클 하루에 하나 읽기가 목표라면, 나는 하루 1번 사이트 접속을 목표로 세울 것이다. 재밌고 즐길 수 있는 것을 목표로 정하는 경우는 흔치 않다. 애초에 활동도 힘든데 목표치를 높게 잡아서 스스로가 더 부담스럽게 느낄 이유는 없다. 매일 다이어리 쓰기가 목표라면 자기전 다이어리에 오늘 날짜 쓰기를 목표로 잡아야한다. 그렇다면 매일 성취감을 느낄 수 있고, 어쩌다 하지 않았을 때 메꾸고 정상궤도로 돌아오기가 쉽다. 영원히 지워지지 않는 to-do list 를 만들어 놓고 스스로 괴로워하지말자. 아직 새해 목표를 세우지 않았다면, 2019년에는 아주 작은 목표를 만들어보자. 행동을 여러 단계로 쪼개서 첫 스텝을 목표로 잡아보자. 매일 방청소를 목표로 세우지 말고 매일 청소기 들기를 목표로 세우자. 그 목표는 자연스럽게 다음 행동으로 이어질 것이다. 그리고 달성이 주는 성취감이 다시 한번 당신을 움직일 것이다.챌린저스, 확실한 목표달성 꾸준한 습관형성www.chlngers.com
조회수 2935

LG전자 인사담당에게 듣는 합격의 비결

2016 상반기 LG그룹 신입공채 모집에 대비한 채용 및 면접 팁에 대해  LG전자 CTO(Chief Technology Officer) 인사담당 이동훈 부장을 만나 합격의 비결을 들어보도록 하겠습니다. (참고 : 2016년 상반기 LG전자 신입사원 정시 채용)이동훈 인사담당자가 생각하는 취업준비 TIP본인에 대한 관찰 일지를 적어보세요. 스스로 했던 활동이나 프로젝트에 대한 이야기도 좋고, 일기 형식의 수필도 좋아요. 꾸준히 관찰 일지를 작성하면, 취업 준비에도 많은 도움이 될 겁니다.‘내 장점은 뭐였더라?’ 자기소개서를 작성하기 위해 머리를 싸맬 필요도 없을 테고요.1. LG 채용을 똑똑히 알고 대처하라2. 본인의 이야기를 ‘담백하게’ 담아라3. 자신감을 만드는 건 실력. 내실에 충실하라Q1. LG는 ‘탈스펙’을 지향한다던데, 사실인가요? 취준생은 오히려 이를 어려워하는 듯해서요.  ‘탈스펙’이라는 용어가 이제 채용 트렌드가 되어버린 시점이죠? 사실 ‘탈스펙’과 ‘열린 채용’을 선도한 기업이 바로 LG입니다. 사실 ‘스펙’이란 후광이 공정한 평가를 막는 요소가 될 수 있어요. 기업 입장에서도 불리한 면이 있는 거죠. ‘탈스펙’과 ‘열린 채용’은 LG의 인재상에 맞는 사람, 조직에 융화되어 성과를 낼 수 있는 사람, 오랫동안 함께할 수 있는 사람을 채용하기 위해 시행되었어요. 스트레스받을 필요가 없습니다. 직무에 필요한 내용 위주로 지원서를 작성토록 하고, 또한 면접을 통해 공정한 평가가 이어져요. 만약 자기소개서에 “영어를 잘한다”라는 내용을 썼다면, 면접에서 영어로 질문합니다. 단순히 토익이나 토플 점수만 높은 건지 회화가 가능한 건지 충분히 확인하고 평가하죠.Q2. 혹시 취준생이 검증할 수 없는 이야기로 거짓말을 했다면, 면접관을 속일 수도 있지 않을까요?오랫동안 수천, 수만 장의 자기소개서를 보고 면접을 본 전문가가 그렇게 간단히 속을 수 있기는 어렵겠죠? 그런 상황에 놓이더라도 심층적인 질문을 통해 거짓말을 잡아낼 수 있죠. 보통 사람은 본인이 했던 행동의 결과를 두고 이야기해요. “제가 이런 활동을 했는데, 성공적으로 마쳤습니다”라는 식으로요. 여기서 면접관은 더 심층적인 질문을 던집니다. 프로젝트는 누가 이끌었는지, 본인은 어떤 역할을 구체적으로 맡았는지, 참여자의 반응은 어땠는지, 그 과정에서 어떤 이슈가 있었고 해결 방법은 무엇이었는지 등을요. 만약 본인이 실제로 했던 경험이라면 막힘없이 술술 답할 수 있겠죠. 반대라면 힘듭니다. 설사하더라도 그 순간의 임기응변으로 지어내야 하기에, 구체적이지 못하고 설득력이 떨어져요.Q3. 한 번 떨어졌다가 재지원하면 불이익이 있다는 게 사실인가요?   전혀 사실무근입니다. 예를 들어볼까요? 재무/경제 직무에 지원했다가 떨어졌던 친구가 있었어요. 회계 테스트를 잘못 봐서 떨어졌다고 하더군요. 그런데 이 친구가 당시 인사담당자에게 “제가 열심히 공부해서 내년에 다시 지원하겠습니다”라는 이야기를 전했고, 이번 연도에 다시 지원해서 시험을 봤어요. 점수를 보니 거의 최고점을 받았더군요. 알고 보니 회계 분야에 대해 잘 몰랐던 친구였는데, 6~8개월간 엄청나게 준비해서 다시 지원했던 거예요. 이렇게 우리 회사에 입사하기 위한 의지와 노력을 보여주는 지원자라면 당연히 환영입니다. 그리고 의도적이든 아니든 지원하는 회사에 인상적인 모습을 남긴다면, 좀 더 유리할 수 있겠죠? 물론 본인의 실력이 뒷받침된다는 전제하에 말이죠.Q4. 학점이 중요한지도 궁금합니다. 전공 필수 학점은 보는 편입니다. 직무와 관련된 전공인데 점수가 터무니없이 낮다면 그 사람이 실력이 있다고 신뢰하기 어려울 테니까요. 반대로 학점은 최고점인데, 막상 면접에서 기초적인 답변조차 잘하지 못하는 사람이라면 좋은 평가를 받기 힘들겠죠. 학점이 다소 부족하더라도 여러 프로젝트나 공모전 등 대외활동을 통해 기본 전공지식과 실전 경험을 쌓은 분이 있어요. 사실 회사는 그런 사람도 필요로 합니다. 실제로 조직에 와서 제대로 일할 수 있는 사람이라는 것도 보여주고, 본인의 분야에 대한 진심 있는 관심에 대한 표현이니까요. 학점은 지원자를 평가하기 위한 참고사항일 뿐이지 전부가 될 수는 없습니다. 물론, 둘 다 보여주면 더할 나위 없겠죠.Q5. LG의 인·적성 검사는 어떤 시험인가요?인·적성검사는 인성검사(LG Way Fit Test)와 적성검사로 구성됩니다. LG Way Fit Test라고도 하는 인성검사는 지원자가 LG Way에 적합한 개인별 역량 또는 직업 성격적인 요소를 확인합니다. 적성검사는 신입사원의 직무수행 기본 역량을 검증하기 위한 평가로 ‘언어 이해 / 언어추리 / 인문 역량(한자, 한국사) / 수리력 / 도형추리 / 도식적 추리’의 6가지로 구성되어 있습니다. 이중 인문 역량은 ‘14년 하반기 신입 공채부터 포함되었습니다. 관련 문제 예제 등은 LG Careers 내 ‘APPLY LG’에서 확인 가능합니다. 특히 본인·적성검사는 지원자의 합격 가능성을 최대한 높이기 위하여, 최대 3개사까지 지원한 LG 계열사에서 함께 활용합니다.Q6. 인·적성 검사도 연습을 통해 좋은 점수를 받을 수 있다는 소문은 어찌 생각하는지요?인성 검사는 약 50분 동안의 시간 내에 350여 개 문항에 답해야 해요. 직관적으로 빠르게 답을 선택해야 하죠. 그래서 조작은 거의 불가능해요. 간혹 이것을 연습하는 분도 있다고 들었는데, 참 안타까운 현실입니다. 그만큼 취업이 어렵다는 뜻이니까요. 인성 검사는 개인의 타고난, 혹은 살아오면서 형성된 인성과 직업 적합성을 파악하고자 만든 거예요. 본인이 원하는 방향으로 결과를 조작해 통과하더라도, 과연 실무에서 제대로 역량을 발휘할 수 있을까요? 쉽지 않으리라 생각합니다.적성 검사는 시험 형태의 문제이다 보니, 연습을 많이 하신 분이 평상시 실력보다 조금 더 시험을 잘 볼 수는 있을 수도 있겠지만, 여러 가지 방법으로 검증해 본 결과는, 단기간에 큰 점수 상승을 기대하기는 어려운 것 같습니다. 평상시 꾸준하게 다독과 깊은 고민을 해보는 것이 좋은 방법이라고 말씀드릴 수 있겠습니다.Q7. 혹시 자기소개서를 작성하는 요령을 귀띔해줄 수 있을까요?이미 여러분이 잘 알고 있는 이야기겠죠? 일단 본인의 이야기를 진솔하게 작성해야 합니다. 요즘은 학교나 취업 관련 스터디에서 교육도 받는다고 들었어요. 그래서인지 정형화된 포맷으로 과장되게 서술된 자기소개서를 받곤 합니다. 앞서 말했듯 본인의 이야기를 담백하게 작성하는 편이 좋습니다. 본인의 이야기는 지원하는 직무와 회사의 인재상에 맞는 내용을 써야 하고요.예를 들어, “저는 시들지 않는 꽃 같은 사람입니다. 싱그러운 꽃처럼, 늘 밝은 모습으로 최선을 다하겠습니다”라는 문장으로 본인을 표현했다고 합시다. 하고 싶은 이야기가 무엇인지는 알겠으나, 그 근거가 부족해 가슴에 와 닿지 않아요. 회사 안에서 본인의 비전이 구체적으로 표현되어 있고, 최근 회사의 주요한 사업 방향과도 연관되게 작성해야 합니다. 더불어 본인이 했던 고민이나 생각이 만들어낸 결과물을 압축해 진솔하게 쓰는 것이 중요하죠.종이 한 장에 기재된 몇 가지 정보만 가지고 사람을 평가하다보니 인사담당자의 역량이 중요합니다. 인사담당자도 사람인지라 실수를 할 수 있으니 여러 명의 인사담당자가 함께 보며 의견을 나눠요. 현업 조직에서 의견을 주기도 하고요. 이 땐 팀 리더뿐 아니라 조직 구성원도 함께 의견을 공유합니다. 최대한 객관적으로, 회사의 인재상에 부합하는 사람을 뽑기 위해 우리도 부단히 노력하고 있습니다. 자칫 눈에 띌 목적으로만 화려한 수식어를 붙이려고 하지 마세요. 본인에게 맞지 않는 옷을 입으려 하진 않았으면 합니다. 그리고 수식어가 있더라도 그 뒤에 근거는 당연히 따라와야 합니다.Q8. 자신감 있는 태도를 보여주면서 거만해 보이지 않으려면 어떻게 하면 될까요?한가지 사례를 들어 설명할게요. 예전에 머리를 빡빡 밀고 온 지원자가 있었어요. 보통 머리를 짧게 깎고 온 경우는 있어도 완전 민머리로 면접을 보러 오진 않죠. ‘이 친구, 참 특이하네’ 생각하며 면접을 진행하는데, 이 친구가 앉아있는 자세도 다소 공격적인 느낌도 있었고요. 아무튼 범상치 않더라고요. 석/박사 과정을 밟지 않은 이유에 관해 묻자 “저는 지금은 석사나 박사가 필요 없다고 생각합니다. 제가 학부 졸업생이지만 경력이나 실력 면에서 그들보다 월등하다고 생각하기 때문입니다”라고 당돌하게 답했어요. 조금 건방진 태도에 전공과 관련해 일부러 어려운 질문을 많이 던졌는데 모르는 게 없는 거예요. 결국 모든 면접 위원이 엄지손가락을 세우며 ‘최고다’라고 평가했고, 당당히 합격했습니다.지금의 예는 굉장히 특이한 경우입니다. 그는 스스로 학부 저학년 때부터 특정 랩에 소속되어 학부와 대학원 생활을 함께하면서 실력을 키웠죠. 외부 대회에서 본인 실력을 입증하기 위해 참가할 만큼 본인의 전공에 미쳐 있었습니다. 제가 이 사례에서 강조하고 싶은 것은 자신감을 만드는 것은 ‘실력’이란 사실이에요. 본인을 믿고, 이를 뒷받침할 수 있는 실력이 있다면 본인만의 스타일을 있는 그대로 보여줘도 괜찮다고 생각합니다. 너무 무례하거나 과장하지 않고, 적정한 선에서 보여주는 자신감은 플러스 요인이 될 수 있고요.Q9. 혹시 면접을 진행하기 전, 질문 목록을 따로 준비하거나 자기소개서에 따라 면접 진행 방법이 달라질 수 있나요?직무 면접 시 질문 목록은 직무에 따라 달라요. 인성면접은 자기소개서를 바탕으로 질문하기에, 정형화된 질문 목록이 있진 않습니다. 다만 직무별 필수 역량을 토대로 몇 가지 질문을 뽑아내어 참고하기는 해요.질문 내용도 중요하지만, 더 중요한 건 질문을 하는 방법입니다. 어떻게 질문을 해나가느냐에 따라서 진정한 지원자의 모습을 확인할 수 있습니다. 아마 LG전자에서 면접을 보시게 되면, 끊임없는 질문으로 본인의 깊숙한 생각마저 얘기하고 있는 자신을 발견할 것입니다. 물론 대충 외운 답변이나 거짓말들은 여지없이 들키게 되겠죠.그리고 면접의 기본적인 프로세스는 웬만해선 그대로 가져가되, 상황에 따라 지원자를 위해 조금 다르게 진행하기도 해요. 소위 ‘맞춤형 면접’을 진행하는 거죠Q10. 면접 진행 방식을 다르게 하는 예를 들어준다면요?예를 두 가지 들어볼게요. 한 가지는 개인별 자기소개서의 내용과 깊이에 따라 차이가 좀 있습니다. 여기에 맞춰 질문을 선정하고, 질문의 깊이와 단계를 진행해요. 다른 한 가지는 면접 환경적인 부분인데요.몇 년 전 면접에서 말을 많이 더듬던 학생이 있었어요. 자기소개서에도 본인이 그 사실을 썼고요. 얼마나 많이 더듬기에 그런가 했는데, 정말 많이 더듬더군요. 한마디 말을 하는데 30초가 넘게 걸리는 상황이니, 더는 진행할 수 없겠더라고요. 그래서 아예 모든 면접이 끝나고 1:1로 그 학생만 따로 면접을 봤어요. 말을 잘하지 못해도 되니, 천천히 본인의 이야기를 하면 된다고 격려했죠. 결국 합격했어요. 조용히 대화를 나눠보니, 본인의 전공 분야에 대한 지식이 아주 뛰어났거든요. 몇 년 후 우연히 마주쳤는데, 이야기를 곧잘 하는 모습에 조금 놀랐습니다. 긴장했을 때 말을 많이 더듬는 편이라더군요. 그때 배려해줘서 감사하다는 인사를 받았어요. 기분이 참 좋았습니다.이동훈 인사담당자의 말 통하는 사람 되는 법1. 상대방의 생각을 자극하는 질문을 한다. 상대의 행동에 화났을 때 비난 대신 대신 “네 이런 행동에 내가 마음이 좋지가 않아. 혹시 네 생각은 어떠니? 내가 어떻게 행동해야 할까?”라는 질문을 해보세요. 상대방이 스스로 생각해 판단할 수 있게끔 방향을 제시하는 거죠.2. 적극적으로 경청한다. 경청의 기술은 귀로만 듣는 것이 아니라 눈과 코, 입, 그리고 가슴으로 듣는 것에 있습니다. 상대의 눈을 바라보며 대화할 줄 알아야 해요.3. 피드백을 유연하게 한다. 고개만 끄덕이는 식의 공감형 피드백도 중요하지만, “그렇군요. 말씀을 충분히 이해했습니다만, 저는 이런 생각이 드네요.”라는 식의 피드백으로 대화를 이어나갈 수 있어야 합니다.4. 공감한다. 가장 기본적이지만 중요한 대화 스킬은 바로 ‘공감’입니다. 본인의 의견에 동의하며 공감할 줄 아는 사람을 싫어할 사람은 아마 없을 거예요.마지막으로 취준생에게 조언 한마디 한다면요? 단기간에 해낼 수 있는 것은 없다고 생각합니다. 회사 역시 단기간에 잘 해내는, 완벽한 사람을 바라지 않고요. 오히려 장기간 함께할 수 있는 사람을 원하기에, 이미 채워져 있는 사람보다 현재 잘 채워가고 있는 사람을 찾습니다. 본인의 부족한 면을 바라보며 걱정하기보다는 그 부족한 부분을 하나하나 채워가는 모습을 보여주세요. 노력하는 청춘의 모습은 분명 아름답게 보일 테니까요.#LG #LG그룹 #LG전자 #LG전자정시채용 #면접 #상반기공채 #신입채용 #이동훈_부장 #채용 #자소서작성 #취업꿀팁 #취업정보 #공채정보 #인사담당자 #취준생조언 #공감
조회수 5031

피부처럼 사용하는 업무용 Tool

1위. Meistertask (https://www.meistertask.com/)올 타임 1위였던 슬랙을 제치고 Meistertask가 당당하게 내가 가장 많이 쓰는 툴로 자리 잡았다. Task management Tool로 Asana, Jira, Trello.... 등을 썼었는데 뭔가 한 끗 차이로 마음에 안 듦. 그래도 전체 flow를 볼 수 있고 Kanban 방식을 적용할 수 있었던 Trello로 한동안 만족했었다. 전체 흐름을 보기 편하고 이쁘다!그러다가.. 우연한 계기로 '예쁜' Trello를 발견하게 되었다. Slack integration app에서 소개된 Meistertask. 아무런 의도 없이 그냥 한번 써볼까 하고 가입했는데 괜찮았다. 뭔가 손에 착착 달라붙는 느낌 ㅎㅎ 거의 모든 기능은 Trello와 비슷하지만 앱도 훌륭하고, 디자인이 Trello와 넘사벽. 슬랙과 integration도 훌륭.. 한데 돈 내야 한다. 근데 뭐 적절하게 IFTTT으로 연동해서 부족한 만큼 쓸 수 있다. 한번 써보시라. 개인적으로 Trello의 지루한 UI 보다 훨씬 신선하고 좋다. 팀원이 말하는 불만은 한 가지. 업무 assign이 한 명밖에 안된다는 것! 근데 나는 사실 한 명한테만 assign이 되는 게 더 좋은 거 같다. Task owner는 언제나 1명일 때가 좋다. 2위. IFTTT (https://ifttt.com/)IF That Then That 풀어쓴 서비스 명이 모든 걸 설명한다. 이거 실행되면 저거 자동으로 실행하기.슬랙을 2위로 할까 하다가 슬랙을 기반으로 얽기 설기 굉장히 복잡하게 얽혀있는 IFTTT을 2위로 선정했다.처음엔 재미 삼아서 이런저런 기능 연결해서 쓰다가, 이제는 내가 쓰는 거의 모든 앱, 서비스들이 IFTTT로 복잡하게 연동되어 있다. 설명이 어렵다. 이걸 실행하면 저걸 실행해준다 정도?내가 IFTTT를 쓰는 수십 가지 중에서 많이 쓰는 것들....- 아이폰에 연락처 저장하면 구글 스프레드시트에 저장해주기- 아이폰에서 스크린숏은 다른 앨범에 저장하기- facebook에 특정 해쉬태그 달면 슬랙 채널에 쏴주기- facebook에 포스팅하면 evernote에 저장해주기- 인스타그램에 포스팅하면 evernote에 아카이브 해주기- pocket으로 저장할 때 특정 tag 달면 slack 채널에 쏴주기- 내일 비 올 때 아이폰으로 푸시 주기- Fitbit에서 일어나면 slack 채널에 쏴주기- 내가 선정릉역에 도착하면 alert 채널에 사장님 도착하심 메시지 쏴주기 등등등이외에도 수십 가지 더 된다. 뭘 해놨는지 까먹을 정도.. IFTTT은 언젠가 IOT의 종합 플랫폼이 될 거다. alexa가 있다면 할 수 있는 게 10배는 늘어날 듯. 3위.  슬랙 (https://slack.com/)어쩌다 보니 3위까지 밀렸는데, 아직도 하루 중 가장 많은 시간을 슬랙 안에서 보낸다. 항상 내 옆에 있는 거 같아서 가끔 질리기도 하지만 오후 8시부터는 Push를 죽이는 snooze 기능을 만들어내는 것을 보면, 미워할 수 없다. 팀 커뮤니케이션은 많이도 방황했는데 결국 결론은 슬랙이다. (울지 마 잔디야...)업무와 일상을 완벽하게 분리하고 싶어서 절대 업무용으로 카톡을 쓰지 않기로 했고, 업무별로 채널을 나누고, 해당 업무는 그 채널에서만 이야기를 나눌 수 있어서 좋다. 처음에는 조금 불편해하는 팀원도 있었지만 결국 슬랙으로 대동단결슬랙의 묘미는 바로 다양한 서비스들과 integration이다. 예를 들면, 관심 있는 아티클을 페북에서 보다가 Pocket을 통해서 저장하고 특정 Tag를 달아놓는다면 자동으로 지정된 슬랙 채널로 쏴줄 수 있다. 팀원들과 마케팅 계획에서 얘기를 하다가 할 일이 생겼다. task mangement를 하는 trello를 켜고 입력할 필요가 없다. 슬랙에서 /trello add를 통해서 간단하게 업무를 더할 수 있다. 뭐 이런 integration은 수두룩 하다. 슬랙 봇은 몇 가지 재미난 게 있지만 결국 그냥 재미용으로 결론을 내림. 4위. 에버노트 (https://evernote.com/)언제부터 썼는지 기억도 안 나지만 5년도 넘게 모든 문서는 에버노트에 빼곡히 기록했다. 얼마 전에 'First Dead Unicorn'으로 잠시 유명세를 탔다. 코끼리야 죽지 마....  얼마 전에 동기화 기기를 2개로 제한하면서 많은 사람들이 떠나갔지만 나는 코끼리에게 프리미엄 결제로 보답했다. 엔간하면 결제를 안 하는 내가 결제를 했으니 내 손을 떠날 수 없는 운명인가 보다. 맥북 에어에서 버벅대는 모습을 보면 화가 나기보다는 애처로운 생각이 든다. 5년 넘게 내 일상을 기록하다 보니 뭔가 감정적으로도 연결된 듯.죽지마 코끼리야..쉽고 빠르게 기록할 수 있는 본질에서 살짝 비켜나면서 굴곡이 있었지만 잘 버텨주길 바란다. 좀 잘하란 말이다. 이렇게 계속 버벅대면 언제 갈아탈지도 모르겠다. 요즘은 에버노트를 팀 위키로 어떻게 활용할 수 있을지 고민 중이다. 지금 위키로 쓰고 있는 구글 사이트 관리자는 너무 느리고, 모바일에서도 굉장히 불편함. 에버노트는 이상한 기능 추가하지 말고 에버노트 위키 기능이나 만들어 주지...5위. Mindmeister (https://www.mindmeister.com/)사실 이건 Meistertask가 너무 마음에 들어서 이 회사에서 만든 다른 서비스는 없나? 하고 둘러보다가 알게 된 서비스이다. 역시 하나를 보면 둘을 안다니깐... 이 서비스도 훌륭하다. 한마디로 마인드맵을 쉽게 만들 수 있는 서비스이다.  요즘 모든  기획을 빡세게 하려고 하면 mindmeister를 켠다. 매우 직관적으로 생각을 잘게 쪼개고 발전시킬 수 있는 툴이다. 꼼꼼한 기획자들에게 강추...안타깝게 순위권에서 떨어진 서비스들..- Pocket : 아티클 간편 저장- Wunderlist : To-do list 작성- beat : 노동요 청취 (푹 쉬렴)- Pomodoro : 25분 일 + 5분 쉬는 것을 도와주는 타이머. 멀티태스킹을 방지해줌결론 : 일 잘하는 사람은 A4 이면지,  모나미 펜만 있어도 충분하다. 그런데 적절한 업무 Tool의 활용은 효율성을 극대화 해준다.#삼분의일 #업무환경 #업무프로세스 #협업 #협업툴 #꿀팁 #스킬스택 #스택소개
조회수 2095

두번째도배 사무실 소개 :: 두번째도배, 이사했답니다!

※이 게시물은 2016년 작성된 공지 게시물로, 현재 (2018년 2월 기준) 사무실 위치와는 다르므로, 혼동 및 착오 없으시길 바랍니다. ※안녕하세요 두번째도배입니다!한창 무더웠던 8월 여름날, 두번째도배가 이사를 했답니다 :)질좋고 편리한 서비스를 합리적인 가격에 제공하는 [온라인도배샵]임에도 불구하고 많은 고객이 사무실을 찾아주셔서,편하게 벽지를 선택하실 수 있는 공간을 마련해뒀어요~두번째도배는 서울 경기 인천 모두 시공하고 있는데방문이 가능하시다면 아늑한 공간에서 벽지를 고르실 수 있을 것 같아요!두번째 사무실은 선릉과 선정릉역 사이에 위치해 있어요선릉과 선정릉 사이, 가장 예쁜 건물 찾으시면 되요! (자부심)CHAMBERRY(샴베리) 라는 카페 아래로 내려오시면..저희 두번째도배를 찾으실 수 있어요! 벽지를 확인하실 수 있는 공간(쇼룸)이 별도로 마련되어 있으니,예약 후 방문해 주시면 됩니다 :)쇼룸의 아늑한 공간에서 도배 서비스를 받으실 수 있어요~ 더욱 좋은 공간, 더욱 좋은 서비스를 제공하기 위한 두번째도배의 노력은 계속됩니다 :)지금까지 두번째도배의 기분 좋은 이사 소식였습니다!영업시간 평일 : 오전 9:00 ~ 오후 7:00토요일 : 오전 9:00 ~ 오후 3:00일요일 휴무
조회수 1659

2018 Facebook 광고전략 13가지!

출처 : 구글 이미지많은 사람들이 예상해왔던 디지털 광고시장의 규모를 이젠 데이터를 통해 확인할 수 있습니다.2017년은 디지털 광고 지출이 최종적으로 전 세계적으로 2,800 억달러(41%)에서 1,780 억달러(35%)를 상회하는 해였습니다.하지만 온라인 광고시장이 모두에게 공평한 기회를 주는 민주주의의 세상은 아닙니다. 대부분의 광고시장은 구글과 페이스북이라는 두 가지의 거대한 플랫폼에 집중되어 있기 때문입니다. 안타깝게도, 구글 광고를 공부하기 위한 ebook이나 책은 다양하게 있지만, 페이스북의 경우에는 아무리 찾아봐도 완벽한 마스터 가이드를 찾기가 쉽지 않습니다. 왜그럴까요?두가지 이유가 있습니다…첫번째는 어디에나 거짓말이 있다는 점입니다. 페이스북 전문가가 되고 싶은 마음에 한두가지 성공적인 캠페인가지고 모든 상황에 적용 가능하듯이 얘기를 합니다. 두번째는, 대체로 진짜 전문가들은 침묵을 지키고 조용히 비밀리에 자신들의 지식을 클라이언트에게 적용하고, 밖으로 공유하지 않습니다.저는 온전히 다른 자료들을 참조하지 않고, 2년 동안 페이스북 광고를 진행하면서 느낀것들을 바탕으로 이 글을 써보았습니다. 물론 제가 정리한 내용들이 정답이 아닐 수 있습니다 ㅎㅎ페이스북 광고 퍼널 모델을 만들고 최적화하기 위한 데이터 기반의 상세 가이드를 써보겠습니다.앞으로도 몇 주 동안 이 상세가이드를 계속 정리하여 게재할 예정입니다.- Top of the Funnel Model 전략 : 적절한 대상에 대한 목표를 설정하고, 광고를 생성하고, 메신저 채팅을 통해 참여를 자동화하기 위한 최고의 방법입니다.- Middle of the Funnel Model 전략 : 목표 재설정, 광고 및 랜딩 페이지 수정, 캠페인 확장을 위한 중간 단계 전략입니다.- Bottom of the Funnel Model 전략 : 물론 현재의 고객들이 평생 가치를 높일 수 있도록 유지하는 업셀링, 교차 판매, 그리고 채널에 대한 접근 방식들을 다루는 방법론입니다.이번 글에서는, 여러분의 퍼널 모델에서 가장 상단에 있는(Top of the Funnel Model 전략) 고객들에 대한 캠페인을 만드는 데 초점을 맞춘 페이스북 광고 전략을 13개 보여 드리겠습니다.1. 우리의 잠재고객을 정리하고, "전환 온도"와 함께 제공하라 !페이스북 광고를 통해 고객을 확보하는 데는 두가지 주요한 방법이 있습니다.AudienceOffer만일 우리가 우리들의 잠재고객과 우리의 제품을 함께 활용하는 방법을 알고 있다면 광고 자체는 중요하지 않습니다.잠재고객도 우선순위가 있습니다. 일단 첫번째로 페이스북에서 광고를 집행할 때, [맞춤 타겟]을 가장 우선순위로 설정해두셔야 합니다. 웹사이트 또는 랜딩페이지에 방문한 사람들 , 이메일 구독자들이 맞춤 타겟의 가장 대표적인 예가 될 수 있겠지요. 이 잠재고객들이 전환할 확률이 가장 높습니다.두번째로 중요한 고객은 [유사 타겟]입니다. [유사 타겟]이란 [맞춤 타겟]을 생성하면 페이스북에서 맞춤 타겟과 유사한 사람들을 기반으로 타겟 모수를 확보하기 위해 더욱 생성해주는 세그먼트를 의미합니다. 예를들어보겠습니다.[맞춤 타겟] : 구독 버튼을 누른 사람[유사 타겟] : 구독 버튼을 누른 사람과 유사한 사람이 될 것입니다.마지막으로 일반 타겟팅 고객군(인구 통계학적, 관심사 및 동작으로 구성되는 타겟)을 배포할 수 있습니다. 이 잠재고객들이 가장 많을 것이고, 그들은 전환을 할 가능성이 가장 낮은 고객군이지요.자, 이제 우리가 우리 고객들을 우선순위에 맞게 나누어 놓았으면, 1차 우선순위 고객, 2차 우선순위 고객, 3차 우선순위 고객별로 '어느 정도를 제공해주어야 그들이 전환할까' 라는 개념의 고객군별 '전환 온도' 를 매치시켜야합니다. 출처 : 구글 이미지우리가 가장 우선순위로 지정해두었던 [맞춤 타겟]이 화산과 같이 가장 뜨거운 전환온도를 가지고 있는데, 그들이 일반적으로 우리 제품의 데모버젼이나, 시험 버젼, 할인 프로모션등을 실시했을때, 전환할 확률이 가장 높기 때문입니다. [유사 타겟]은 위의 이미지에서 중간 단계에 속하고 전환 온도는 따뜻한 정도겠지요. 이 유사타겟에서 여러분은 이들의 전환온도를 높이는데 집중해야 하고, 1:1 문의나 ebook 제공과 같은 call to action을 가볍게 불러일으킬 만한 것들을 제공해야합니다. 마지막으로 3번째 우선순위인 [일반 저장 타겟]은 얼음과 같은 차가운 전환온도를 가지고 있겠지요. 아마도 우리 광고 컨텐츠를 클릭해보거나, 영상을 시청하거나, 우리 게시글에 좋아요를 누르는 수준의 행위를 취할 것입니다.2. 고객 추천 광고(Social Proof)로 차가운 전환온도를 높여라!차가운 전환온도를 가지고 있는 사람들(3차 저장된 타겟)의 경우, 실제로 우리들의 제품을 사용해본 다른 사람들의 후기를 광고 컨텐츠로 제작하여 그들에게 노출시키는 것이 효과적입니다. 실제 광고와 관련하여 고객의 실제 견적과 함께 고객 후기 스타일을 컨텐츠 기획에 사용하면 아직 브랜드에 익숙하지 않은 잠재 고객과의 신뢰를 구축하는 데 가장 적합합니다. 실제 고객들이 구매한 제품 사진이나 제품 사용 영상도 차가운 온도의 전환온도를 가지고 있는 고객들에게는 훌륭하게 작동합니다.출처 : 구글 이미지구매 대신 장바구니에 추가하기 이벤트에 대한 전환 온도가 낮은 잠재 고객 광고를 최적화하는 것으로 시작하십시오. 이렇게하면 Facebook에서 많은 양의 전환 데이터를 확보 할 수 있습니다. 어떤 광고 세트를 일시 중지하거나 확장할지 결정하는 것은 일반적으로 구매 당 비용 및 전반적인 ROAS (광고 지출 수익)에 근거해야합니다.Top of the Funnel Model 전략에서 마케터가 저지르는 한 가지 공통적인 실수 중 하나는 단순히 잠재고객을 확보하기 위하여 수익성이 낮은 광고를 너무도 오래 집행한다는 사실입니다. 첫 광고 단계에서 조금의 수익이라도 발생하게 된다면, 여러분은 타겟과 광고를 확장할 수 있습니다. 또한,  Funnel Model의 아랫단계로 갈수록 광고 수익에 훨씬 더 영향을 미칠 수 있습니다.3. 정확한 타겟팅 광고로 판매하라!정말 당연한 얘기겠지만, 적절한 잠재 고객을 타겟팅하는 것은 굉장히 중요합니다. 크리에이티브 광고는 이 단계에서 끝이 나버려도 좋습니다. 예를 들어 블록버스터 영화 제품을 제작하는 동안 CPA가 매우 높고 비용에 큰 차이가없는 광고 소재를 여러 개 만들었습니다. 특정 잠재 고객을 유럽이나 여성 및 젊은 층 인구로 살짝 틀어지게 만들었을 때에는 CPA가 크게 감소했습니다. 즉, 몇 가지 연령 및 위치 인구 통계 (기존 소비자 기반 및 설문 조사를 중심으로)를 테스트하여이 사실을 파악했습니다. 저는 젊은 층이 특정 영화가 낭만적이고 실용적이라고 느꼈던 제품을 소비하기가 훨씬 더 쉽다는 것을 깨달았습니다. 나이가 많은 인구층은 향수라는 감정이 들었을 때 제품을 소비 할 가능성이 더 많았다는 사실을 찾아냈습니다.이로 인해 영화 프랜차이즈의 티켓 판매량이 전반적으로 증가했습니다. 우리가 이 사실을 깨달았을 때 우리는 홍보했던 영화를 더 많이 소비 할 가능성이 큰 잠재 고객을 타겟팅 할 수있었습니다.4. 광고제목을 명확하게 최적화하라!광고의 가장 중요한 구성 요소 중 하나로서, 유료 고객을 성공적으로 유치하려는 경우 잠재 고객에게 명확하고 간결하며 흥미롭고 관련성있는 광고제목을 만들어야합니다. 항상 고객들의 발자취를 따라가는 것이 중요합니다. 여러분의 광고제목 또한 여러분이 광고하고자 하는 영상또는 이미지 컨텐츠와 완벽하게 일치해야합니다.저는 몇 가지 잘못 셋팅 된 광고를 본적이 있습니다. 테스트, 테스트 및 테스트. 약간 변형 된 여러 버전을 실행하고 최고의 실적을 지속적으로 최적화하셔야 합니다. 광고제목과 컨텐츠가 조화를 이루어 높은 전환율을 이끄는 것이 중요합니다. 그러나 여러분이 특정 전환율이 높은 광고제목과 컨텐츠를 찾았다고 생각할 때조차도 실험을 중단하지 마세요.단순히 클릭수를 높이는 주목을 위한 광고카피를 사용하지마세요. 이러한 클릭 수가 전환되지 않는다면 클릭 수를 얻는 데는 아무런 인사이트가 없습니다! 즉, 광고 소재를 CPC ,CTR로 측정하지 마시고, 항상 CPA나 ROAS를 기준으로 커뮤니케이션 할 필요가 있습니다. CPC는 의미없습니다.아래 이미지에 있는 광고제목에서는 좀 더 창의적인 카피보다 41.14 % 높은 전환율을 나타 냈습니다.굉장히 단순하고 직관적인 광고제목이지요?5. 비주얼 하나가 수천개의 클릭을 좌우한다.저는 광고제목이 중요하다고 강조했고, 적절한 타겟팅 역시 중요하다고 얘기를 했고, 고객군별로 어떤 CTA를 제공할지에 대한 것도 중요하다고 했습니다. 그러나 모든 사람들이 페이스북에서 광고를 누르지 않고 스크롤해버리면 이때까지 제가 중요하다고 했던 것들은 더 이상 중요하지 않습니다. 광고에서 사용하는 이미지 또는 비디오는 관심을 끌 수 있는 가장 중요한 요소입니다. 일단 시각적으로 광고를 주목한 다음 광고제목이나 내용을 읽고 우리들이 제공하는 것을 얻기 위해 클릭 할 것입니다. 다행히도, 여러분은 좋은 이미지를 내놓을 그래픽 디자이너나 창조적인 천재가 될 필요는 없습니다. 세 가지가 알면 되니까요. Canva AdEspresso Psychology 아마도 Canva에 대해서는 많이들 알고 계실것입니다. 디자인 된 이미지를 공짜로 사용할 수 있는 것이지요.AdEspresso의 경우 사이트에 거의 모든 업계의 인기있는 Facebook 광고 사례와 상상할 수있는 틈새 시장을 보여주는 검색 엔진입니다.이 세 가지 중 가장 활용도가 적은 것은 Psychology 입니다. 우스운 것이든, 이상한 것이든, 진절머리 나는것이든, 충격적인 비주얼은 사람들을 그 길에서 막습니다. 아래 그림은 이상하지만 제품과 브랜드가 완벽하게 일치합니다. 카피 라이팅은 의도적으로 더 기괴하게 해두는 것이지요. 그리고 그게 핵심입니다.출처 : 구글 이미지다음으로 이미지에 20 %의 텍스트 리밋이 페이스북 정책에 있지요. 그걸 효과적으로 써야 합니다!페이스북 광고의 제목과 설명은 너무 작습니다. 이미지를 먼저 보지 않으면 사람들은 그것을 읽지 않을 것입니다. 그러나 이미지안에 있는 20%의 텍스트는 엄청날 수 있습니다. 주어진 공간을 최대한 활용하셔야 합니다. 특히 동영상 광고의 스크립트 오버레이에 있어서는 더욱 그렇습니다.마지막으로, 시각적인 것(이미지나 영상)과 단어, 광고제목을 우리가 의도하는 고객들의 행동을 목표로하여 초점을 맞춥니다. 한국에도 좋은 예가 있군요.https://www.youtube.com/watch?v=b47648Buy-E     <iframe width="700.000000" height="394.000000" src="//www.youtube.com/embed/b47648Buy-E" frameborder="0" allowfullscreen="">6. 자연 검색 Funnel Model 을 제가공하라 !가능한 가장 좋은 Facebook 마케팅 퍼널 모델을 만드는 방법을 알고 싶으시죠?가장 좋은 자연 검색을 통한 구매자를 볼까요? 이들은 여러분의 비즈니스를 사랑하고, 판매중인 모든 단일 제품을 구매하는 사람들입니다. 그들이 어떻게 우리를 처음으로 발견했는지, 그들이 우리들에 대해 어떻게 배웠는지를 분석할 필요가 있습니다. 무엇이 그들을 우리 브랜드에 사랑에 빠지게 만들었을까요?그런 다음, 그 과정을 재현하셔야 합니다! 예를 들어, 저는 아이들을 위해 30만원짜리 제품을 판매했던 클라이언트와 함께 일했습니다. 그들은 대부분의 부모가 유기적으로 구매하게 된 원인을 알고있었습니다.1. 부모 중 한 명이 Facebook 에서 우리 서비스에 관한 기사를 발견했습니다.2. 그들은 웹 사이트에 와서 홈페이지를 스크롤하여 몇 가지 리뷰를 읽었습니다.3. 가격을 알아 낸 뒤, 제품에 대한 게시물에서 남편 이름을 태깅했습니다.이 프로세스를 염두에 두고 유입 경로를 구축했습니다. 저는는 제품에 대한 짧은 30 초짜리 비디오를 특징으로하는 타겟팅 페이스북 영상 광고를 집행했습니다.  페이스북 영상에 달려있는 링크를 통해, 기사를 읽은 후 사람들을 홈페이지로 유도하였습니다. 원래 저의 계획은 배우자를 태그한 고객들에게 리타겟팅을 실시하는 것이었습니다. 제가 발견 한 것은 원래 광고가 너무 잘되어 사람들이 그 게시물을 공유하고 배우자에게 태그를 붙였으며 결국 많은 사람들이 제품을 장바구니에 추가했다는 사실입니다. 제품 가격은 30만원인데 비해 평균 거래당 단가가 3천원 정도였습니다.자연 유입 경로를 정리해보니 구매를 이끈 것은 낮은 전환온도의 고객들이었습니다. 1) 제품에 대한 영상 광고 시청. 2) 제품에 대한 기사 클릭3) 홈페이지로 이동 4) 배우자와 제품 공유 5) 장바구니에 상품 추가유기적인 퍼널 모델을 재현함으로써, 우리를 들어 본 적이없는 사람들로 하여금 훌륭한 충성고객으로 만들 수 있었습니다. 이 동일한 성공 방정식을 사용하여 여러분의 비즈니스에도 완벽한 퍼널을 구축 할 수 있습니다.7. 고정된 요소와 유연한 요소를 적용하라 !가장 좋은 팁은 문화적 고정 관념과 유연성을 교차적으로 사용해야 하는 것입니다. 예를 들어서, 제가 샌프란시스코에서 광고를 한다면, 나는 제 카피에 "테크 브라더스"를 사용할 것이다. 만약 내가 로스 엔젤레스에서 광고를 한다면, 저는 "모델이 되고 싶어"를 사용할 것입니다.유연성의 경우 저는 가장 높은 감정적인 반응을 이끌어 내는 이미지를 사용합니다. 예를 들어, 만약 제가 뉴욕시의 사람들에게 지역 스타트업 이벤트를 마케팅한다면, 저는 스타트 업 이벤트가 아니라 뉴욕의 사진을 사용해서 광고를 할 것입니다. 그 이유는, 평균적으로, 사람들이 그들의 도시에 대해 더 강한 정서적 연결을 갖기 때문이지요.여기서 얻을 수 있는 교훈은 가장 낮은 CPL[Cost Per Like]을 생성하기 위해 사용해야 하는 사진이 흔히 처음에 예상했던 것과 많이 다르다는 것입니다.만약 여러분이 문화적인 고정 관념을 가지고 유연성과 함께 결합할 수 있다면, 여러분은 낮은 CPL을 생성하게 될 것입니다. 두가지 요소 사이에 균형을 잡는것만은 잊지 마세요.출처 : 구글 이미지8. 3단계에 걸쳐 영상 시퀀스 광고를 집행하라!우리는 아까처럼 잠재고객들의 브랜드 인지도, 페이스북 게시물 참여도, 전환에 따라 맞춤 고객을 정의하고, 전환온도 별로 고객들의 우선순위를 매길 수 있었습니다.영상광고도 마찬가지로, 브랜드인지도로 노출에 중심을 둔 영상 광고를 집행한 뒤, 나중에 10초 이상 영상을 시청한 고객만 묶어서 그들에게 참여를 권장하는 참여형 영상광고를 집행하고, 또 다시 그들이 10초 정도 광고 영상을 시청하면 , 전환을 목적으로 한 영상 캠페인 광고를 다시 집행하시면 됩니다.대부분의 사람들은 그들이 제공하는 제품이나 서비스에 대한 영상 광고는 집행하지만, 왜 이 제품을 사용해야 하는지, 어떻게 이 제품을 사용해야 하는지에 대한 영상 컨텐츠를 만들지는 않습니다.이 방법을 사용하면 잠재 고객에게 관심을 보이면서 왜 그렇게 하는지, 어떻게 하는지를 알려 줄 수 있습니다.출처 : 구글 이미지9. 사용자 기반의 컨텐츠, Social Proof , 인플루언서 마케팅을 결합하라!자료와 페이스북 광고를 통해 완벽한 고객을 공략하는 것과 관련해서는 많은 정보가 있지만, 이런 사람들을 겨냥해야 할 실제 To Do List 에 대해서는 충분한 논의가 없었던 것이 사실입니다.종종, 마케팅 담당자들은 분석에 너무 몰두하여 그들이 페이스북 광고를 사용하는 이유를 잊어 버립니다.성공적인 마케팅 캠페인은 훌륭한 타겟 외에도 훌륭한 창의력을 지녀야 합니다(사진이든 영상이든). 이는 여러분이 핵심 고객과 잠재 고객의 인구 통계에 대해 잘 알고 있어야 한다는 것을 의미합니다. 잘 알고 집행하는 광고에 사람들이 더 많이 반응하는 것은 당연하니까요.더구나, 목표로 삼은 이러한 창의성을 달성하기 위한 가장 좋은 방법은 UGC(User-Generated contents)를 통해 만들어진 것입니다.  UGC 기반 광고는 캠페인 타겟 또는 웹 사이트가없는 캠페인보다 29% 높은 웹 전환율로 전환시킬뿐만 아니라 Facebook 광고 입찰 시스템에서 더 저렴하게 운용할 수 있습니다. UGC 기반 광고는 클릭률이 4 배 높고 클릭당 비용 (CPC)이 평균보다 50 % 하락했습니다.여기 UGC의 멋진 예가 있습니다.아시다시피 좋아요, 댓글 및 공유의 형태로 된 사회적 증거의 정도가 높을수록 광고는 규모가 커지고 더 저렴한 클릭을 받고 더 저렴한 전환을 얻을 수 있습니다. 또한 UGC와 영향력있는 마케팅을 결합한 유명인의 이야기를 통해 빅토리아 팬을 대상으로 광고 타겟을 나눴습니다. 목표로 한 팬을 통해 충분한 Social Proof가 만들어지면 새로운 인구 통계에서 광고를 탐색하는 데 사용되었습니다. 제가 직접 테스트해서 얻은 놀라은 데이터입니다. UGC 컨텐츠를 집행했을 때의 광고 성과클릭률(CTR) : 13.2 % CPC : 35원 CPM : 4천원 비교해 보면, 전통적인 미디어로 최고의 실적을내는 광고는 ... 클릭률 (CTR) : 2.81 % CPC : 200원 CPM : 6천원UGC는 본질적으로 여러분의 영상 광고를 제작하는 데 수천 달러를 지출하는 대신 굉장히 자유롭게 만들 수 있습니다. 실제 고객이 컨텐츠를 만드는 형식이기 때문에 따로 인구통계를 파악하여 타겟팅을 할 필요도 없지요.10. 메신저 봇을 통하여, 퀴즈 컨텐츠 만들기 !메신저 봇에서 실행할 수있는 훌륭한 워크 플로는 Facebook 게시글 댓글에 대한 자동 응답입니다.질문이있는 게시물을 만들 수 있으며, 사람들이 의견에 답변을 제공하고 타겟 고객에게 홍보하도록 권장 할 수 있습니다. 사람들이 소식에 댓글을 남기면 봇이 메신저에서 자동으로 응답하도록 설정하여 메신저 채널에서 잠재 고객을 확보 할 수 있습니다.즉, 나중에 메신저에서 브로드 캐스트를 보내거나 순서대로 정렬된 메시지 등을 구독하여 직접 이 모든 사람들과 다시 참여할 수 있습니다. 그리고 모든 사용자가 직접 우리 브랜드에 대해 케어를 받게됩니다.페이스북 알고리즘에 의존하여 메신저 광고를 하는 것 보다 페이스북 페이지 팔로잉을 하여 게시물을 노출시키는 것이 훨씬 더 정확합니다.이 페이지의 고정 된 게시물을 살펴보세요. Lifetime Bulb는이 기술을 통해 높은 수준의 리드를 확보하고 있습니다. 또한이 워크 플로우를 통한 잠재고객당 비용은 다른 채널보다 약 80 % 정도 낮을 수 있습니다.출처 : 구글 이미지11. 컨텐츠를 통해 'Context'를 만들어라 !이제 우리가 Mofu(Middle of the Funnel Model) , Bofu(Bottom of the Funnel Model)에 대한 프레임워크가 구축되었다면, 신규고객 전략(Top of the Funnel Model)을 위한 컨텐츠 배포가 비즈니스 성장의 모든 것이 될 것입니다. 핵심은 우리 비즈니스의 특징이나 신뢰도, 연결고리를 다양한 컨텐츠를 통해 지속적으로 노출시키면서 고객들과 끈끈한 관계를 유지하는 것입니다.예를 들어 한달에 한번 고객들을 위한 컨텐츠를 정기적으로 배포하여 Top of the Funnel Model에 속해있는 고객들의 트래픽을 우리 웹사이트로 정기적으로 유입시키는 방법이 있습니다.Facebook이 점점 더 광고 플랫폼으로 진화하게 되면서, 클릭당 비용도 점점 더 비싸지고 있습니다. 이러한 트렌드 때문에, 마케터가 더이상 비효율적인 광고를 집행하는 일을 방지하기 위해 지속적인 관계유지를 위한 컨텐츠 배포를 페이스북에서 진행하는 것은 매우 중요합니다. 12. 경쟁사 타겟을 사용하라!제가 새로운 클라이언트나 고객들을 얻기위해 가장 중요시하게 생각하는 관점은  '많은 사람들이 내 브랜드를 알고 있지만, 더 많은 사람들은 그렇지 않을것이다' 라는 사실입니다.이러한 관점을 가지고 저는 처음으로 저의 경쟁사를 좋아하는 타겟들에게 광고집행을 했습니다. 예를들어서, 만약에 여러분이 Tony Robbins' 라는 브랜드의 고객들에게 무언가를 호소하고자 한다면 그 브랜드를 좋아하는 사람들을 타겟팅하면 되는 것이지요.페이스북은 모든 데이터를 공짜로 제공합니다. 그 중에서도 단연 최고인 것은 경쟁사 타겟이 일반적인 인구통계 타겟팅 보다 훨씬 더 광고와 관련성이 높다는 사실이지요.이 전략은 기존에 우리가 광고 집행을 할때 쓰였던 타겟팅의 인구 통계 정보와 함께 사용하면 더욱 효과적인 성과를 얻을 수 있습니다. 이 전략은 단순히 인구통계만으로 타겟팅을 진행했던 유저들에게 필터링 작용을 사용할 수 있다는 거지요. 그런 다음 우리는 이 두가지 필터를 사용하여, 메세지를 전달할 수 있습니다.출처 : 구글 이미지13. 라이브 영상과 유료 캠페인 광고를 구축하라사람들이 여러분의 비즈니스에 엄청난 참여도와 데이터를 기술적으로 묶어서 페이스북 광고에 사용하는 것은 절대적으로 중요한 일입니다. 여러분은 이미지 컨텐츠를 사용하던, 영상 컨텐츠를 사용한던, 이러한 것들을 다양한 방식으로 셋팅할 수 있습니다. 제가 가장 좋아하는 타겟팅 기술은 매일매일 라이브 영상을 페이스북에서 진행한 이후에, 영상을 시청한 사람들과 라이브 영상에 참여한 사람들을 타겟으로 지정하여 저의 웹사이트에 방문하게끔하는 전략입니다.물론 여러분은 좀 더 다르고 세밀한 방식으로 리타겟팅을 진행해도 괜찮습니다. 이러한 방식을 이용한 리타겟팅은 우리들에게 좀 더 낮은 CPA를 제공할 가능성이 높으니까요. 아래쪽 예시를 참조해주세요.출처 : 구글 이미지여기 까지 다양한 페이스북 광고의 전략론들을 공유해보았습니다.아직은 정리가 제대로 안된 것 같다는 느낌이 들지만 조만간 ebook으로 정리하여 배포할 예정이니 많은 관심 가져주세요.퍼포먼스 마케팅 에이전시, 오피노 바로가기
조회수 1741

스파크랩 투자 유치, 그리고 우리가 집중해야될 목표.

투자 확정은 9월 21일이였다. https://www.facebook.com/hyunil.filab/posts/1424721077604707?pnref=story그리고 9월 25일, 오늘 역삼 스파크 플러스 1호점으로 사무실에 입주했다. 지문 등록도 하고 회의실도 예약해서 앞으로 우리의 목표에 대해서 팀원들에게 나의 생각을 공유했다.올해는 어떻게든 BEP를 맞춥시다. 자생적으로 살아남아야 됩니다. 그러면 우리는 우리가 하고 싶은 걸 하면서 더 큰 미래를 만들 수 있을 겁니다.한번 더 글로벌 액설레이터가 필요하다면 다음 목표는 YC입니다. 사실 우리는 이미 YC에 온겁니다. YC 배치에서는 운동과 일만 합니다. 우리는 우리가 이루어할 공동의 목표를 잊지 않고 여기에 몰입하면 반드시 달성할 수 있습니다.그래서 우리의 목표는 올해 BEP를 맞추는 것이다. 10월, 11월, 12월 3개월 안에 맞출 수 있을까? 현재 팀원 4명 풀타임, 1명 파트 타임. 우리가 타겟하고 있는 강남 고객(특히 청담동의 페르소나)을 월 7건만 유치하면 (7마리 분양)가능하다고 판단된다. 7건을 위해서 무엇을 해야되는가? (핵심 활동 1)브리더 인터뷰 콘텐츠 포스팅, 2)메세지 아웃바운드 영업, 3)데일리 입양 가능 자견 포스팅) 4)퍼널 들어와서 매칭 안된 고객 계속 추적)1. 브리더 인터뷰 콘텐츠 확보 월 15개 포스팅, 이틀에 하나 꼴로 인터뷰 포스팅. (가능하면 더 많이) (이는 동시에 브리더 소싱/선별/영업이 동시에 이루어져야 하므로 가장 시간이 많이 드는 작업이다.)2. 시간날 때마다 인스타 다이렉트 메세지 영업  실험(매일 10명을 목표로)  (페이스북 메세지 효율은 상당히 좋았다. 타겟팅이 안되서 실제 전환까지는 힘들었지만.)3. 매일 입양 가능한 아이들 [부견-모견-자견] 1개 세트 업로드하기 ( 현실적으로 브리더 수에 따라 이것이 가능하기 때문에 힘들 수도 있다. 따라서 SKU를 최대한 중복 없는 느낌으로 잘 포스팅해서 피드 노출을 극대화 해야된다고 생각된다.)4. 우리의 이탈률은 [1] '가격'과 [2] '지속적인 응대 실패' 가 제일 컸다. 고객이 원하는 강아지라면 그 가격대에 살 수 없어서 다른 곳에서 강아지를 선택하는 경우가 이탈 대다수였다. (가끔 외모가 마음에 안들어서 이탈하는 경우도 종종) 이 문제는 참 어렵다.. 구찌와 같은 브랜드십과 퀄리티를 유지하면서도 가격은 몇십만원에 팔아야 된다는 의미다.. 이건 많이 고민중이다. [2]에 대해서는 우리가 좀 더 신경을 기울이면 충분히 수익으로 전환시킬 수 있는 부분이라서 신경써서 해야될 것 같다. +알파,오프라인 타겟 마케팅을 전통적인 방법으로 꾸준히 실험하면서 효율을 최적화시키는 것을 수시로 병행. 파트너십을 활용한 효율적인 노출(특히 예를 들어 분양 추천에 대한 문의가 꽤 있는 청담 우리 병원을 통한 모객), 그리고 리드를 넓히기 위한 각종 활동으로 고객이 유입되었을 때 퍼널을 계속 추적, UX를 계속 개선시키고 웹페이지가 어드민 시스템으로 가기 이전에 랜딩에서 충분히 후킹될 수 있는 디자인 작업과 글귀가 빠른 시일 내에 완성이 되어야 할 것 같다. (10월달) 그리고 SBA 프로그램에 10월 말 데모데이에서 마케팅 자금을 따와서 이제 돈을 태워보며 A/B테스트를 해봐야될 것 같다.2018.01.01 당당하게 달성했다는 글을 쓸 수 있도록...!!!우리가 받은 투자는 론치 투자라는 것을 받았다.나 혼자 생활비만 써도 겨우 겨우 살아갔는데 같이 일하는 팀원들까지 있으니 처음에 식비(회식비)라도 책임지자라는 마음에 애견샵에서 알바하는 것을 마음 먹었지만 ROI도 너무 안좋고 그렇게 강아지 판매&관리 하는 건 단 하루도 못 버틸 것 같았다. 그래서 내가 선택한 것은 "창업경진대회 알바" 였다.상금을 타면서 현금 500만원을 모았고 (큰 걸 한방했어야 하는데.. 짜잘한 것에서 1등 많이 해봤자...) Cj 올리브 네트웍스에서 주최한 경진대회에서 126팀 중 2등을 했고 거기 심사위원으로 있었던 스파크랩 대표님이 페오펫에 가장 좋은 점수를 주셨다. (여기서 창업허브 입주 공간도 얻게 되어 사실 사무실이 2개..) 그 인연으로 이렇게 스파크랩과 인연이 되었다.스파크랩 데모데이 6기 블로그 포스팅스파크랩 데모데이 8기 블로그 포스팅대학생때부터 스파크랩 데모데이에 갔다. 이 행사는 내 가슴을 정말 미치게 뛰게 만들었다. (지금도 나도 뭐 휴학한 대학생이지만...) 매번 나는 스파크랩 데모데이를 갈 때마다 저 무대에 반드시 오를 거다. 조금만 기다려라. 를 외쳤었다. 근데 생각보다 빨리 그 미래가 왔다. 상상의 힘은 강력하다. 먼 미래를 앞당기니깐.요즘 내가 자극받고 있는 사진, 휴대폰 잠금 화면페오펫은 하루 빨리 세계 시장에 뛰어들려고 한다. 우리의 가치를 한국 사람들에게만 알리는 것은 매우 안타깝다. 전 세계를 놀라게 만들고 싶다. 그리고.. 그를 통해 더 많은 사람들이 더 높은 꿈을 꾸게 만들고 싶다. 가치를 넘어서 영감을 주는 기업을 설립하고 싶다.상상의 힘은 강력하다. 먼 미래를 앞당기니깐.우리는 입양(분양)만으로 절대 안끝난다. 입양하고 난 뒤에 열리는 그 시장에서 우리의 독보적인 시장을 만드는 것을 목표로 한다. 내가 그리고 우리가 페오펫이 그렇게 생각하고 그렇게 할거기 때문에 그렇게 될거다. 그냥 그렇게 믿고 현재에 집중하는 것이다. 분양과 이커머스는 분명 다른 두 개의 사업이다. 그럼에도 불구하고 분양을 접점으로 브리더분들의 브랜딩을 통해 이커머스에서 새로운 도약을 만들 수 있는 기회가 분명히 존재한다고 상상하고 있다.상상한다고 비용이 드는 건 아니니깐. 꿈은 크게 꾸고 작고 빠르게 행동하자. 모든 일이 다시작은 미약하지만 끝은 창대하지 않는가. 그 거대한 비전을 상상하며 가능한 빨리 실패를 해보는 것이다. 한번 성공하면 계속 성공시킬 수 있다고 믿고 있다. 페오펫의 첫 성공을 통해 우주의 커다란 흔적을 남길 수 있는 여정의 계기가 되었으면 한다.#페오펫 #peopet #투자유치 #IR #자금조달 #자금유치 #스타트업 #생존기 #경험공유
조회수 1226

챌린저스가 만난 사람들

나쁜 습관을 하나 없애면 새로운 습관이 생겨나요.결국 빈자리를 채우게 마련이거든요이름 차예진직업 플로리스트좋아하는 습관 아침일찍 일어나 팟캐스트 듣기저는 대전에서 플로리스트로 활동하고 있어요. 자유도가 높은 직업이다보니 스스로의 생활을 관리하고 챙기는 것이 중요해요. 몇시에 일어나고 몇시까지 어디에 가야한다와 같은 규칙적인 리듬의 생활이 필요하기도 해요. 바쁜 일정들을 하나씩 깨나갈 때, 주도적이고 적극적으로 살고 있다는 느낌을 받게되요.어떤 계기로 챌린저스 앱을 사용하시게 되었나요?우연히 6시 기상이벤트 광고를 보게되었어요. 사실 원래 아침 6시에 일어나고 있던 건 아니었어요. 늘 생각만 하고 있던 목표였죠. 그래서 조금 망설여졌어요. 내가 과연 이 미션을 잘 달성할 수 있을까. 돈만 걸었다가 잘 못하면 어쩌지. (웃음). 그래도 한번 해봐야겠다 생각했어요. 매번 일찍 일어나겠다고 생각만 한 가득하고 있었는데, 이 참에 한 번 작은 도전을 즐겨보자는 생각으로 챌린지를 신청했어요.챌린지 첫 날, 6시에 눈이 딱 떠졌어요. 정말 신기하더라구요. 벌떡 일어나서 오늘의 미션을 하기 위해 책상으로 가서 오늘의 한마디를 적었어요. 뭘 써야할까 머리를 막 굴리다보니 잠이 깨더라구요. 정말 신기한 경험이었어요. 그렇게 2주 동안 매일 눈이 떠지더라고요. 갑작스럽게 일찍 일어나려니 힘들지 않으셨나요?그게 그래야 하는데, 이상하게 기분이 계속 좋았어요. 성취감이라고 해야할까. 사실 6시에 일어나는 게 무슨 대단한 업적은 아니잖아요. 근데 하루의 첫 목표를 잘 달성하고 나니까 자신감도 생기고 더 긍정적인 감정을 느꼈어요. 전날 회식을 가더라도 술을 마시지 않을 당당한 이유도 생기고, 생활 속에 작은 목표가 있으니 집중도 하게되고 좋더라구요. 그리고 무엇보다 아침에 손글씨로 한 마디를 적는 것이 기억에 남아요. '오늘 하루도 화이팅' 일어나자마자 이런 긍정적인 말들을 손으로 적으니 하루 종일 그 기운이 퍼져 있는 것 같았어요.평소에도 계획한 것은 빠짐없이 지키는 스타일인가요?꼭 그렇지는 않아요. 말씀드렸잖아요 6시에 일어나야지 생각만해왔다고. (웃음).그래도 꾸준히 스스로를 계발하려고 노력하는 편이라고 생각해요. 제가 매주 2개의 주간지를 구독해서 보고 있는데, 재즈 피플과 매경이코노미예요. 재즈는 제가 플로리스트로 활동하는 데에 좋은 영감을 많이 불어 넣어줘요. 규율이 있는 듯 자유분방한 그 느낌을 작업할 때도 많이 추구하게 되요. 평소에도 그 느낌을 놓치고 싶지 않아서 자주 꺼내보고 있어요. 매경은 경제와 세상 공부를 위해서 보고 있어요. 사실 경제 기사가 재미있지는 않거든요. 그럼에도 봐야겠다는 생각이 들어서 보고 있는 걸 보면, 필요하다고 생각하는 일은 실천하는 편인 것 같아요.예진님을 행복하게 만드는 습관이 있나요?저는 아침에 일어나서 팟캐스트 듣는 걸 좋아해요. 사실 이름도 잘 모르는데, 최신 경제 기사를 한 번 쭉 훑어주는 채널이예요. 팟캐스트는 꼭 집중해서 듣지 않고 배경 음악처럼 깔아두는데, 어쩌다 관심이 생기는 기사가 생기면 귀를 쫑긋하고 열심히 듣게되요. 그런 여유가 좋아요. 억지로 꼭 기억하려고 하면 하기 싫어지잖아요. 오히려 있는 듯 없는 듯 틀어만 두고 가끔 관심을 가지게 되면 그런 지식들이 천천히 삶에 배어들어와요. 자주 접하고 친해지는 과정에서 쌓인 친근감 덕분에 관심 영역이 넓어지는 것 같아요. 경제라는 딱딱하고 어려운 내용에 친해진 것도 팟캐스트를 통해서였어요. 처음에는 재미가 없었죠. 용어도 낯설고, 무언가 거창한 이야기 같고. 그러다 출근 준비를 하면서 몇 번 무릎을 탁 친 적이 있어요. '아 그래서 그런거구나' 하고 생활에 스며들어 있는 경제상식에 대해서 이해를 하게 된거죠. 그런 재미가 쌓이다 보니 지금은 매일 빼먹지 않고 습관처럼 듣게되요. 그럼 사람들에게 추천하고 싶은 습관도 있나요?저는 집에서 TV 를 없앴어요. 사람들이 많이 시간을 보내는 것은 TV와 휴대폰 두 개 예요. 거의 25년을 봐왔는데, 딱히 어떤 프로그램을 정해놓고 보는 것도 아니었어요. 말 그대로 TV를 틀어놓고 살았는데, 어느 순간 이건 아니다 싶은 생각이 들었어요. 사람의 변화라는 게 남들이 아무리 뭐라고 이야기해도 찾아오지 않거든요. 그러다 어느 한 순간 이대로는 안되겠어 싶으면 사람들은 변하게되요. 저는 그런 생각이 찾아오자마자 TV 를 버렸어요. 처음에는 후회가 됐죠. 집 안이 텅 빈 것이 허전하기도 하구요. 그런데 그 덕분에 주간지도 볼 수 있게 되고 새로운 컨텐츠에 관심도 갖게 되었어요. 빈자리는 결국 채워지기 마련이거든요. 한 행동을 줄이면 자연스럽게 다른 행동을 더 하고 싶어져요. TV를 버린 덕분에 관심사가 많이 늘어나게 된 것 같아요.새해에 이루고 싶은 꿈이나 목표가 있으신가요?올 해는 잘 정리하는 습관을 들이려고 해요. 평소 쓰는 물건들을 제자리에 놓아두는 것 뿐만 아니라 필요없는 물건들을 하나씩 버림으로써 생활을 단순하게 만들 생각이예요. 그리고 예쁜 꽃들로 사람들에게 행복감을 주는 그런 선물을 계속 만들어 나가고 싶어요. 컨텐츠 보는 것도 빠짐없이 계속 할 예정이구요. 챌린저스 브런치가 있는 줄 몰랐는데, 꼭 구독하도록 할게요 (웃음) 말해놓고 보니 할 게 너무 많은데, 이걸 다 챌린지로 만들어주실 수 있나요?사람들이 아무리 몰아세워도 바뀌지 않아요.그러다 한 순간 '이대로 안되겠다' 싶을때 그 때 사람이 변해요.결국 스스로가 깨달아야죠좋은 습관을 가진 사람들의 이야기interviewee 차예진interviewer 김왕수www.chlngers.com
조회수 341

엔젤투자란 무엇인가요?

엔젤투자란 무엇인가요? 날개 없는 천사, 엔젤투자자 엔젤투자란, 아이디어 혹은 기술력이 있으나 자금이 부족한 예비창업자나 초창기 창업기업에 투자하고 기업을 성장시킨 후에 이익을 회수하는 투자를 지칭하며, 이러한 엔젤투자를 진행하는 투자자를 엔젤투자자라 합니다. 투자한 기업이 성공적으로 성장하여 기업가치가 올라가면 큰 이득을 얻을 수 있으나 실패할 경우에는 투자액의 대부분을 손실로 입게 됩니다. 스타트업 입장에서는 ‘죽음의 계곡’이라 불리우는 창업 초기 단계를 이겨낼 수 있도록 도와주는 천사같은 투자자라 하여 엔젤 투자자라는 이름이 붙여지게 되었습니다. 자금 지원부터 경영 자문까지, 스타트업의 구원자  일반적으로 개인, 또는 자금력이 있는 개인들이 모인 투자클럽(엔젤클럽)이 투자 주체가 되어 스타트업의 미래 가능성을 보고 투자를 하게 되는데 자금 지원뿐만 아니라 투자자 자신의 전문 지식을 토대로 한 경영 자문을 통하여 스타트업이 성장할 수 있도록 도와주고, 이를 통해 기업 가치가 상승하였을 때 지분을 매각하는 방식으로 수익을 실현합니다. 엔젤투자자는 기업을 성공적으로 매각한 경험이 있는 기업인, 기업 M&A나 IPO를 통해 돈을 번 사람, 대기업 경영진 출신 들이 주류를 이루고 있으며 개인의 자금을 활용하여 투자하기 때문에 통상적으로 기업 당 5천만원 내외의 투자를 진행하곤 합니다.최근 관련 기관의 통계에 따르면 엔젤투자자의 개인 평균 투자금액은 약 4천만원, 기업 평균 피투자금액은 1.5억정도로 이루어지고 있으며, 투자를 받는 기업의 평균적인 업력은 1.2년인 것으로 조사되었습니다. 이는 초기 스타트업에 투자하는 엔젤투자의 보편적인 형태를 잘 드러낸다고 볼 수 있겠습니다. 꼭꼭 숨은 엔젤투자자? 엔젤투자자의 개념은 알겠는데 도대체 ‘누가 엔젤투자자라는 것인지, 주변에는 좀처럼 찾아볼 수 없는 것 같은데’라며 긴가민가한 분들도 있을 것입니다. 물론 묵묵히 은둔 고수처럼 활동하고 있는 여러 엔젤투자자가 있겠지만, 그중 대표적으로 공인된 전문엔젤투자자 두 분을 소개해드리려 합니다. [‘다음’의 공동창업자에서 액셀러레이터까지] 대한민국에서 인터넷을 사용하는 사람이라면 누구나 알고 있는 다음커뮤니케이션의 공동창업자였던 이택경 대표는 현재 ICT분야 액셀러레이터인 매쉬업엔젤스의 대표로 활약하고 있습니다. 벤처인 1세대로서 인터넷 시대를 연 이택경 대표는 국내 1호 액셀러레이터인 프라미어의 공동대표를 거쳐 현재 매쉬업엔젤스 대표 파트너로서 후배 벤처인 양성에 힘쓰고 있습니다. 전문엔젤투자자 1호이기도 한 이택경 대표는 본인의 창업시절 겪었던 착오를 후배들이 겪지 않을 수 있도록 금전적인 투자자는 물론 실질적인 도움을 주며 말그대로 ‘천사’ 투자자의 역할을 하고 있습니다.  [미래를 위한 회사를 만들다] 서울과학고등학교, 카이스트 박사, 인텔 상무라는 탄탄대로를 걷고도 차세대 테크 스타트업을 돕기 위해 퓨처플레이를 창업한 류중희 대표는 위의 이택경 대표와 같은 1호 전문엔젤투자자입니다. 25세 때 처음으로 창업 전선에 뛰어든 류중희 대표는 두번째로 창업한 사물/인물인식기술 회사 올라웍스를 350억원에 인텔에 매각한 경험이 있습니다. 인수 후 2년 간 인텔에서 상무로 근무한 류중희 대표는 본인의 경험을 살려 테크 전문 액셀레러이터 퓨처플레이를 설립하고 현재는 AI, 사물인터넷(IoT), 뇌과학, 빅데이터 분야 스타트업을 집중적으로 지원하고 있습니다. 위의 사례에서 보듯 엔젤투자자란 금전적인 투자와 그 회수만을 목적으로 하는 단순 투자자가 아니라, 본인의 경험과 노하우를 살려 이제 막 성장을 시작한 스타트업을 다방면으로 지원하고 기업을 함께 만들어 나가는 진정한 멘토라고 볼 수 있겠습니다. 활력을 더해가는 엔젤투자 엔젤투자는 최근 수년간 그 규모가 지속적으로 성장하고 있습니다. 현재 공식적으로 등록된 전문엔젤투자자는 약 130여명이며 이 수치는 정부의 등록 요건 완화 및 시장 활성화 방안을 통해 크게 늘어날 전망입니다. 엔젤클럽은 215개로, 연말까지도 꾸준히 신규 설립되며 벤처열풍이 거셌던 2003년 이후 최대를 기록할 전망입니다. 개인 투자자들의 투자금액도 지속적으로 증대되고 있음을 확인할 수 있는데요, 소득공제를 신청한 투자금액을 바탕으로 추산한 엔젤투자 규모는 2016년 약 2,100억원, 2017년 약 2,800억원에서 2018년에는 약 4,000억원으로 큰 폭의 증가세를 보이고 있습니다. (자료 : 엔젤투자지원센터) 이렇게 엔젤투자는 정부의 적극적인 규제 완화, 세제 지원과 투자 지원 사업으로 인해 점점 활기를 띠고 있습니다. 여러가지 엔젤투자 활성화 정책 중에서도 투자자들이 주목하고 꼭 챙겨야할 부분이 있는데요, 바로 소득공제와 엔젤투자매칭펀드입니다. 다음 포스팅을 통해 두가지 혜택에 대하여 좀더 자세하게 설명을 드리도록 하겠습니다.  
조회수 3268

Attention is all you need paper 뽀개기

이번 포스팅에서는 포자랩스에서 핵심적으로 쓰고 있는 모델인 transformer의 논문을 요약하면서 추가적인 기법들도 설명드리겠습니다.Why?Long-term dependency problemsequence data를 처리하기 위해 이전까지 많이 쓰이던 model은 recurrent model이었습니다. recurrent model은 t번째에 대한 output을 만들기 위해, t번째 input과 t-1번째 hidden state를 이용했습니다. 이렇게 한다면 자연스럽게 문장의 순차적인 특성이 유지됩니다. 문장을 쓸 때 뒤의 단어부터 쓰지 않고 처음부터 차례차례 쓰는 것과 마찬가지인것입니다.하지만 recurrent model의 경우 많은 개선점이 있었음에도 long-term dependency에 취약하다는 단점이 있었습니다. 예를 들어, “저는 언어학을 좋아하고, 인공지능중에서도 딥러닝을 배우고 있고 자연어 처리에 관심이 많습니다.”라는 문장을 만드는 게 model의 task라고 해봅시다. 이때 ‘자연어’라는 단어를 만드는데 ‘언어학’이라는 단어는 중요한 단서입니다.그러나, 두 단어 사이의 거리가 가깝지 않으므로 model은 앞의 ‘언어학’이라는 단어를 이용해 자연어’라는 단어를 만들지 못하고, 언어학 보다 가까운 단어인 ‘딥러닝’을 보고 ‘이미지’를 만들 수도 있는 거죠. 이처럼, 어떤 정보와 다른 정보 사이의 거리가 멀 때 해당 정보를 이용하지 못하는 것이 long-term dependency problem입니다.recurrent model은 순차적인 특성이 유지되는 뛰어난 장점이 있었음에도, long-term dependency problem이라는 단점을 가지고 있었습니다.이와 달리 transformer는 recurrence를 사용하지 않고 대신 attention mechanism만을 사용해 input과 output의 dependency를 포착해냈습니다.Parallelizationrecurrent model은 학습 시, t번째 hidden state를 얻기 위해서 t-1번째 hidden state가 필요했습니다. 즉, 순서대로 계산될 필요가 있었습니다. 그래서 병렬 처리를 할 수 없었고 계산 속도가 느렸습니다.하지만 transformer에서는 학습 시 encoder에서는 각각의 position에 대해, 즉 각각의 단어에 대해 attention을 해주기만 하고, decoder에서는 masking 기법을 이용해 병렬 처리가 가능하게 됩니다. (masking이 어떤 것인지는 이후에 설명해 드리겠습니다)Model ArchitectureEncoder and Decoder structureencoder는 input sequence (x1,...,xn)<math>(x1,...,xn)</math>에 대해 다른 representation인 z=(z1,...,zn)<math>z=(z1,...,zn)</math>으로 바꿔줍니다.decoder는 z를 받아, output sequence (y1,...,yn)<math>(y1,...,yn)</math>를 하나씩 만들어냅니다.각각의 step에서 다음 symbol을 만들 때 이전에 만들어진 output(symbol)을 이용합니다. 예를 들어, “저는 사람입니다.”라는 문장에서 ‘사람입니다’를 만들 때, ‘저는’이라는 symbol을 이용하는 거죠. 이런 특성을 auto-regressive 하다고 합니다.Encoder and Decoder stacksEncoderN개의 동일한 layer로 구성돼 있습니다. input $x$가 첫 번째 layer에 들어가게 되고, layer(x)<math>layer(x)</math>가 다시 layer에 들어가는 식입니다.그리고 각각의 layer는 두 개의 sub-layer, multi-head self-attention mechanism과 position-wise fully connected feed-forward network를 가지고 있습니다.이때 두 개의 sub-layer에 residual connection을 이용합니다. residual connection은 input을 output으로 그대로 전달하는 것을 말합니다. 이때 sub-layer의 output dimension을 embedding dimension과 맞춰줍니다. x+Sublayer(x)<math>x+Sublayer(x)</math>를 하기 위해서, 즉 residual connection을 하기 위해서는 두 값의 차원을 맞춰줄 필요가 있습니다. 그 후에 layer normalization을 적용합니다.Decoder역시 N개의 동일한 layer로 이루어져 있습니다.encoder와 달리 encoder의 결과에 multi-head attention을 수행할 sub-layer를 추가합니다.마찬가지로 sub-layer에 residual connection을 사용한 뒤, layer normalization을 해줍니다.decoder에서는 encoder와 달리 순차적으로 결과를 만들어내야 하기 때문에, self-attention을 변형합니다. 바로 masking을 해주는 것이죠. masking을 통해, position i<math>i</math> 보다 이후에 있는 position에 attention을 주지 못하게 합니다. 즉, position i<math>i</math>에 대한 예측은 미리 알고 있는 output들에만 의존을 하는 것입니다.위의 예시를 보면, a를 예측할 때는 a이후에 있는 b,c에는 attention이 주어지지 않는 것입니다. 그리고 b를 예측할 때는 b이전에 있는 a만 attention이 주어질 수 있고 이후에 있는 c는 attention이 주어지지 않는 것이죠.Embeddings and Softmaxembedding 값을 고정시키지 않고, 학습을 하면서 embedding값이 변경되는 learned embedding을 사용했습니다. 이때 input과 output은 같은 embedding layer를 사용합니다.또한 decoder output을 다음 token의 확률로 바꾸기 위해 learned linear transformation과 softmax function을 사용했습니다. learned linear transformation을 사용했다는 것은 decoder output에 weight matrix W<math>W</math>를 곱해주는데, 이때 W<math>W</math>가 학습된다는 것입니다.Attentionattention은 단어의 의미처럼 특정 정보에 좀 더 주의를 기울이는 것입니다.예를 들어 model이 수행해야 하는 task가 번역이라고 해봅시다. source는 영어이고 target은 한국어입니다. “Hi, my name is poza.”라는 문장과 대응되는 “안녕, 내 이름은 포자야.”라는 문장이 있습니다. model이 이름은이라는 token을 decode할 때, source에서 가장 중요한 것은 name입니다.그렇다면, source의 모든 token이 비슷한 중요도를 갖기 보다는 name이 더 큰 중요도를 가지면 되겠죠. 이때, 더 큰 중요도를 갖게 만드는 방법이 바로 attention입니다.Scaled Dot-Product Attention해당 논문의 attention을 Scaled Dot-Product Attention이라고 부릅니다. 수식을 살펴보면 이렇게 부르는 이유를 알 수 있습니다.Attention(Q,K,V)=softmax(QKT√dk)V<math>Attention(Q,K,V)=softmax(QKTdk)V</math>먼저 input은 dk<math>dk</math> dimension의 query와 key들, dv<math>dv</math> dimension의 value들로 이루어져 있습니다.이때 모든 query와 key에 대한 dot-product를 계산하고 각각을 √dk<math>dk</math>로 나누어줍니다. dot-product를 하고 √dk<math>dk</math>로 scaling을 해주기 때문에 Scaled Dot-Product Attention인 것입니다. 그리고 여기에 softmax를 적용해 value들에 대한 weights를 얻어냅니다.key와 value는 attention이 이루어지는 위치에 상관없이 같은 값을 갖게 됩니다. 이때 query와 key에 대한 dot-product를 계산하면 각각의 query와 key 사이의 유사도를 구할 수 있게 됩니다. 흔히 들어본 cosine similarity는 dot-product에서 vector의 magnitude로 나눈 것입니다. √dk<math>dk</math>로 scaling을 해주는 이유는 dot-products의 값이 커질수록 softmax 함수에서 기울기의 변화가 거의 없는 부분으로 가기 때문입니다.softmax를 거친 값을 value에 곱해준다면, query와 유사한 value일수록, 즉 중요한 value일수록 더 높은 값을 가지게 됩니다. 중요한 정보에 더 관심을 둔다는 attention의 원리에 알맞은 것입니다.Multi-Head Attention위의 그림을 수식으로 나타내면 다음과 같습니다.MultiHead(Q,K,V)=Concat(head1,...,headh)WO<math>MultiHead(Q,K,V)=Concat(head1,...,headh)WO</math>where headi=Attention(QWQi,KWKi,VWVi)dmodel<math>dmodel</math> dimension의 key, value, query들로 하나의 attention을 수행하는 대신 key, value, query들에 각각 다른 학습된 linear projection을 h번 수행하는 게 더 좋다고 합니다. 즉, 동일한 Q,K,V<math>Q,K,V</math>에 각각 다른 weight matrix W<math>W</math>를 곱해주는 것이죠. 이때 parameter matrix는 WQi∈Rdmodelxdk,WKi∈Rdmodelxdk,WVi∈Rdmodelxdv,WOi∈Rhdvxdmodel<math>WiQ∈Rdmodelxdk,WiK∈Rdmodelxdk,WiV∈Rdmodelxdv,WiO∈Rhdvxdmodel</math>입니다.순서대로 query, key, value, output에 대한 parameter matrix입니다. projection이라고 하는 이유는 각각의 값들이 parameter matrix와 곱해졌을 때 dk,dv,dmodel<math>dk,dv,dmodel</math>차원으로 project되기 때문입니다. 논문에서는 dk=dv=dmodel/h<math>dk=dv=dmodel/h</math>를 사용했는데 꼭 dk<math>dk</math>와 dv<math>dv</math>가 같을 필요는 없습니다.이렇게 project된 key, value, query들은 병렬적으로 attention function을 거쳐 dv<math>dv</math>dimension output 값으로 나오게 됩니다.그 다음 여러 개의 head<math>head</math>를 concatenate하고 다시 projection을 수행합니다. 그래서 최종적인 dmodel<math>dmodel</math> dimension output 값이 나오게 되는거죠.각각의 과정에서 dimension을 표현하면 아래와 같습니다.*dQ,dK,dV<math>dQ,dK,dV</math>는 각각 query, key, value 개수Self-Attentionencoder self-attention layerkey, value, query들은 모두 encoder의 이전 layer의 output에서 옵니다. 따라서 이전 layer의 모든 position에 attention을 줄 수 있습니다. 만약 첫번째 layer라면 positional encoding이 더해진 input embedding이 됩니다.decoder self-attention layerencoder와 비슷하게 decoder에서도 self-attention을 줄 수 있습니다. 하지만 i<math>i</math>번째 output을 다시 i+1<math>i+1</math>번째 input으로 사용하는 auto-regressive한 특성을 유지하기 위해 , masking out된 scaled dot-product attention을 적용했습니다.masking out이 됐다는 것은 i<math>i</math>번째 position에 대한 attention을 얻을 때, i<math>i</math>번째 이후에 있는 모든 position은 Attention(Q,K,V)=softmax(QKT√dk)V<math>Attention(Q,K,V)=softmax(QKTdk)V</math>에서 softmax의 input 값을 −∞<math>−∞</math>로 설정한 것입니다. 이렇게 한다면, i<math>i</math>번째 이후에 있는 position에 attention을 주는 경우가 없겠죠.Encoder-Decoder Attention Layerquery들은 이전 decoder layer에서 오고 key와 value들은 encoder의 output에서 오게 됩니다. 그래서 decoder의 모든 position에서 input sequence 즉, encoder output의 모든 position에 attention을 줄 수 있게 됩니다.query가 decoder layer의 output인 이유는 query라는 것이 조건에 해당하기 때문입니다. 좀 더 풀어서 설명하면, ‘지금 decoder에서 이런 값이 나왔는데 무엇이 output이 돼야 할까?’가 query인 것이죠.이때 query는 이미 이전 layer에서 masking out됐으므로, i번째 position까지만 attention을 얻게 됩니다.이 같은 과정은 sequence-to-sequence의 전형적인 encoder-decoder mechanisms를 따라한 것입니다.*모든 position에서 attention을 줄 수 있다는 게 이해가 안되면 링크를 참고하시기 바랍니다.Position-wise Feed-Forward Networksencoder와 decoder의 각각의 layer는 아래와 같은 fully connected feed-forward network를 포함하고 있습니다.position 마다, 즉 개별 단어마다 적용되기 때문에 position-wise입니다. network는 두 번의 linear transformation과 activation function ReLU로 이루어져 있습니다.FFN(x)=max(0,xW1+b1)W2+b2x<math>x</math>에 linear transformation을 적용한 뒤, ReLU(max(0,z))<math>ReLU(max(0,z))</math>를 거쳐 다시 한번 linear transformation을 적용합니다.이때 각각의 position마다 같은 parameter W,b<math>W,b</math>를 사용하지만, layer가 달라지면 다른 parameter를 사용합니다.kernel size가 1이고 channel이 layer인 convolution을 두 번 수행한 것으로도 위 과정을 이해할 수 있습니다.Positional Encodingtransfomer는 recurrence도 아니고 convolution도 아니기 때문에, 단어의sequence를 이용하기 위해서는 단어의 position에 대한 정보를 추가해줄 필요가 있었습니다.그래서 encoder와 decoder의 input embedding에 positional encoding을 더해줬습니다.positional encoding은 dmodel<math>dmodel</math>(embedding 차원)과 같은 차원을 갖기 때문에 positional encoding vector와 embedding vector는 더해질 수 있습니다.논문에서는 다른 *frequency를 가지는 sine과 cosine 함수를 이용했습니다.*주어진 구간내에서 완료되는 cycle의 개수PE(pos,2i)=sin(pos/100002i/dmodel)<math>PE(pos,2i)=sin(pos/100002i/dmodel)</math>PE(pos,2i+1)=cos(pos/100002i/dmodel)<math>PE(pos,2i+1)=cos(pos/100002i/dmodel)</math>pos<math>pos</math>는 position ,i<math>i</math>는 dimension 이고 주기가 100002i/dmodel⋅2π<math>100002i/dmodel⋅2π</math>인 삼각 함수입니다. 즉, pos<math>pos</math>는 sequence에서 단어의 위치이고 해당 단어는 i<math>i</math>에 0부터 dmodel2<math>dmodel2</math>까지를 대입해 dmodel<math>dmodel</math>차원의 positional encoding vector를 얻게 됩니다. k=2i+1<math>k=2i+1</math>일 때는 cosine 함수를, k=2i<math>k=2i</math>일 때는 sine 함수를 이용합니다. 이렇게 positional encoding vector를 pos<math>pos</math>마다 구한다면 비록 같은 column이라고 할지라도 pos<math>pos</math>가 다르다면 다른 값을 가지게 됩니다. 즉, pos<math>pos</math>마다 다른 pos<math>pos</math>와 구분되는 positional encoding 값을 얻게 되는 것입니다.PEpos=[cos(pos/1),sin(pos/100002/dmodel),cos(pos/10000)2/dmodel,...,sin(pos/10000)]<math>PEpos=[cos(pos/1),sin(pos/100002/dmodel),cos(pos/10000)2/dmodel,...,sin(pos/10000)]</math>이때 PEpos+k<math>PEpos+k</math>는 PEpos<math>PEpos</math>의 linear function으로 나타낼 수 있습니다. 표기를 간단히 하기 위해 c=100002idmodel<math>c=100002idmodel</math>라고 해봅시다. sin(a+b)=sin(a)cos(b)+cos(a)sin(b)<math>sin(a+b)=sin(a)cos(b)+cos(a)sin(b)</math>이고 cos(a+b)=cos(a)cos(b)−sin(a)sin(b)<math>cos(a+b)=cos(a)cos(b)−sin(a)sin(b)</math> 이므로 다음이 성립합니다.PE(pos,2i)=sin(posc)<math>PE(pos,2i)=sin(posc)</math>PE(pos,2i+1)=cos(posc)<math>PE(pos,2i+1)=cos(posc)</math>PE(pos+k,2i)=sin(pos+kc)=sin(posc)cos(kc)+cos(posc)sin(kc)=PE(pos,2i)cos(kc)+cos(posc)sin(kc)<math>PE(pos+k,2i)=sin(pos+kc)=sin(posc)cos(kc)+cos(posc)sin(kc)=PE(pos,2i)cos(kc)+cos(posc)sin(kc)</math>PE(pos+k,2i+1)=cos(pos+kc)=cos(posc)cos(kc)−sin(posc)sin(kc)=PE(pos,2i+1)cos(kc)−sin(posc)sin(kc)<math>PE(pos+k,2i+1)=cos(pos+kc)=cos(posc)cos(kc)−sin(posc)sin(kc)=PE(pos,2i+1)cos(kc)−sin(posc)sin(kc)</math>이런 성질 때문에 model이 relative position에 의해 attention하는 것을 더 쉽게 배울 수 있습니다.논문에서는 학습된 positional embedding 대신 sinusoidal version을 선택했습니다. 만약 학습된 positional embedding을 사용할 경우 training보다 더 긴 sequence가 inference시에 입력으로 들어온다면 문제가 되지만 sinusoidal의 경우 constant하기 때문에 문제가 되지 않습니다. 그냥 좀 더 많은 값을 계산하기만 하면 되는거죠.Trainingtraining에 사용된 기법들을 알아보겠습니다.Optimizer많이 쓰이는 Adam optimizer를 사용했습니다.특이한 점은 learning rate를 training동안 고정시키지 않고 다음 식에 따라 변화시켰다는 것입니다.lrate=d−0.5model⋅min(step_num−0.5,step_num⋅warmup_steps−1.5)warmup_step<math>warmup_step</math>까지는 linear하게 learning rate를 증가시키다가, warmup_step<math>warmup_step</math> 이후에는 step_num<math>step_num</math>의 inverse square root에 비례하도록 감소시킵니다.이렇게 하는 이유는 처음에는 학습이 잘 되지 않은 상태이므로 learning rate를 빠르게 증가시켜 변화를 크게 주다가, 학습이 꽤 됐을 시점에 learning rate를 천천히 감소시켜 변화를 작게 주기 위해서입니다.RegularizationResidual ConnectionIdentity Mappings in Deep Residual Networks라는 논문에서 제시된 방법이고, 아래의 수식이 residual connection을 나타낸 것입니다.yl=h(xl)+F(xl,Wl)<math>yl=h(xl)+F(xl,Wl)</math>xl+1=f(yl)<math>xl+1=f(yl)</math>이때 h(xl)=xl<math>h(xl)=xl</math>입니다. 논문 제목에서 나온 것처럼 identity mapping을 해주는 것이죠.특정한 위치에서의 xL<math>xL</math>을 다음과 같이 xl<math>xl</math>과 residual 함수의 합으로 표시할 수 있습니다.x2=x1+F(x1,W1)<math>x2=x1+F(x1,W1)</math>x3=x2+F(x2,W2)=x1+F(x1,W1)+F(x2,W2)<math>x3=x2+F(x2,W2)=x1+F(x1,W1)+F(x2,W2)</math>xL=xl+L−1∑i=1F(xi,Wi)<math>xL=xl+∑i=1L−1F(xi,Wi)</math>그리고 미분을 한다면 다음과 같이 됩니다.σϵσxl=σϵσxLσxLσxl=σϵσxL(1+σσxlL−1∑i=1F(xi,Wi))<math>σϵσxl=σϵσxLσxLσxl=σϵσxL(1+σσxl∑i=1L−1F(xi,Wi))</math>이때, σϵσxL<math>σϵσxL</math>은 상위 layer의 gradient 값이 변하지 않고 그대로 하위 layer에 전달되는 것을 보여줍니다. 즉, layer를 거칠수록 gradient가 사라지는 vanishing gradient 문제를 완화해주는 것입니다.또한 forward path나 backward path를 간단하게 표현할 수 있게 됩니다.Layer NormalizationLayer Normalization이라는 논문에서 제시된 방법입니다.μl=1HH∑i=1ali<math>μl=1H∑i=1Hail</math>σl= ⎷1HH∑i=1(ali−μl)2<math>σl=1H∑i=1H(ail−μl)2</math>같은 layer에 있는 모든 hidden unit은 동일한 μ<math>μ</math>와 σ<math>σ</math>를 공유합니다.그리고 현재 input xt<math>xt</math>, 이전의 hidden state ht−1<math>ht−1</math>, at=Whhht−1+Wxhxt<math>at=Whhht−1+Wxhxt</math>, parameter g,b<math>g,b</math>가 있을 때 다음과 같이 normalization을 해줍니다.ht=f[gσt⊙(at−μt)+b]<math>ht=f[gσt⊙(at−μt)+b]</math>이렇게 한다면, gradient가 exploding하거나 vanishing하는 문제를 완화시키고 gradient 값이 안정적인 값을 가짐로 더 빨리 학습을 시킬 수 있습니다.(논문에서 recurrent를 기준으로 설명했으므로 이에 따랐습니다.)DropoutDropout: a simple way to prevent neural networks from overfitting라는 논문에서 제시된 방법입니다.dropout이라는 용어는 neural network에서 unit들을 dropout하는 것을 가리킵니다. 즉, 해당 unit을 network에서 일시적으로 제거하는 것입니다. 그래서 다른 unit과의 모든 connection이 사라지게 됩니다. 어떤 unit을 dropout할지는 random하게 정합니다.dropout은 training data에 overfitting되는 문제를 어느정도 막아줍니다. dropout된 unit들은 training되지 않는 것이니 training data에 값이 조정되지 않기 때문입니다.Label SmoothingRethinking the inception architecture for computer vision라는 논문에서 제시된 방법입니다.training동안 실제 정답인 label의 logit은 다른 logit보다 훨씬 큰 값을 갖게 됩니다. 이렇게 해서 model이 주어진 input x<math>x</math>에 대한 label y<math>y</math>를 맞추는 것이죠.하지만 이렇게 된다면 문제가 발생합니다. overfitting될 수도 있고 가장 큰 logit을 가지는 것과 나머지 사이의 차이를 점점 크게 만들어버립니다. 결국 model이 다른 data에 적응하는 능력을 감소시킵니다.model이 덜 confident하게 만들기 위해, label distribution q(k∣x)=δk,y<math>q(k∣x)=δk,y</math>를 (k가 y일 경우 1, 나머지는 0) 다음과 같이 대체할 수 있습니다.q′(k|x)=(1−ϵ)δk,y+ϵu(k)<math>q′(k|x)=(1−ϵ)δk,y+ϵu(k)</math>각각 label에 대한 분포 u(k)<math>u(k)</math>, smooting parameter ϵ<math>ϵ</math>입니다. 위와 같다면, k=y인 경우에도 model은 p(y∣x)=1<math>p(y∣x)=1</math>이 아니라 p(y∣x)=(1−ϵ)<math>p(y∣x)=(1−ϵ)</math>이 되겠죠. 100%의 확신이 아닌 그보다 덜한 확신을 하게 되는 것입니다.Conclusiontransformer는 recurrence를 이용하지 않고도 빠르고 정확하게 sequential data를 처리할 수 있는 model로 제시되었습니다.여러가지 기법이 사용됐지만, 가장 핵심적인 것은 encoder와 decoder에서 attention을 통해 query와 가장 밀접한 연관성을 가지는 value를 강조할 수 있고 병렬화가 가능해진 것입니다.Referencehttp://www.whydsp.org/280http://mlexplained.com/2017/12/29/attention-is-all-you-need-explained/http://openresearch.ai/t/identity-mappings-in-deep-residual-networks/47https://m.blog.naver.com/PostView.nhn?blogId=laonple&logNo=220793640991&proxyReferer=https://www.google.co.kr/https://www.researchgate.net/figure/Sample-of-a-feed-forward-neural-network_fig1_234055177https://arxiv.org/abs/1603.05027https://arxiv.org/abs/1607.06450http://jmlr.org/papers/volume15/srivastava14a.old/srivastava14a.pdfhttps://arxiv.org/pdf/1512.00567.pdf

기업문화 엿볼 때, 더팀스

로그인

/