ABOUT ME

-

Today
-
Yesterday
-
Total
-
  • KBS, MBC, 아프리카 TV 서버가 터지는 동안 끝까지 생중계한 SBS의 노하우은? │인터비즈 알아봐요
    카테고리 없음 2020. 2. 25. 04:06

    [DBR/동아 비즈니스 리뷰]때는 20하나 8년 6월 27하나, 러시아 컵 대한민국 VS 독할지전이 열렸다. 전 국민의 관심이 쏠렸던 이 경기는 당시 KBS MBC SBS 아프리카TV POOQ 등에서 생중계됐다. 사상 최대의 접속 서버에 대부분의 스트리밍 서비스 페이지가 마비됐지만 유독 SBS만 살아남았다. 이런 차이는 어디에서 나온 것일까. SBS I&M 박정진 플랫폼 서비스실장은 클라우드라고 답합니다. SBS는 국내 방송사 최초로 클라우드를 전환하기도 했지만 DBR 280호에 게재된 박종진 실장과 인터뷰 이야키우에서 자세히 알아보자.文원문 기사 추가


    >


    SBS는 첫 990년 예기부터 인터넷 사업을 시작했다. 회사의 인프라가 만들어진 지 20년이 넘었으니, 동영상 서비스도 첫 0~20년 된 장비에 왔다. 인프라가 오래 전이므로, 적재 적소에 활용하지 못할뿐더러, 나이에 1,2차 대형 스포츠 경기가 있을 때 SBS웹이 그아잉아프리에 몰려시청자는 감당할 수 없게 됐다. 첫 0시 황금 때 테러 대상으로 시청률 20~30퍼센트대 유행의 드라마가 나의 오기라도 하면 쵸쯔쵸쯔시 때 본방이 마지막 인자자마자 VOD의 재검토를 이용하려고 다가오는 접속자 때문에 화면 장애가 되쵸쯔스욧다. 특히 영상이 뜨겁지 않은 버퍼링이 심할 때 인내심을 갖고 기다리는 사람은 조금 거의 없다. 대부분 표시될 때까지 클릭을 무한 반복하기 때문에 시스템은 과부하로 나타났다.


    >


    올림픽이 본인의 월드컵은 또. 수십 만 인구가 동시 접속했지만 경기가 마지막, 본인의 면 썰물처럼 빠지고 본인에게 가, 또한 다른 하나 0만 여명이 하이라이트 영상을 돌리면 사이트를 찾는다. 경기를 위해 방영하지 않는 유행연예가 자신의 드라마라도 있으면 운동을 싫어한다 계획대로 방송해 달라고 항의하기 위해 시청자 게시판에 로그인한다. 기존 시스템에서는 이처럼 특정 기간에 꼭대기까지 오르는 트래픽에 견디지 못하고 1년에서 당신은 사이트가 버티지 못 했다. SBS만의 문제도 없었고, 이러한 전세 집이 20년 가까이 반복되면서 전체의 문제를 당연하게 생각했다. 그런 본인의 OTT(Over The Top) 서비스가 트렌드가 되면서 유료 이용자가 예상보다 많아지면서 더 이상 가만히 있을 수 없다는 문제의식이 생겼다. 그곳에서 외부의 초고성능 시스템을 빌릴 수 있는 클라우드를 발견했다.


    >


    원래는 장비를 사서 자체 데이터센터에 넣어 썼지만 앞으로는 클라우드에 있는 시스템을 구독하듯 월세를 내고 쓴다. 이 때문에 서버가 사라지는 서버리스(Serverless) 환경을 실현할 수 있게 됐다. AWS(Amazon Web Services)가 당시 우리가 원하고, 필요로 하는 만큼 자동으로 서버를 늘 그랬던 것처럼 해 주기 때문이다. 20첫 6년 뒤 한번도 새로 서버를 산 적이 없다. "이러한 신축적인 환경은 리우올림픽, 평창동계올림픽, 아시아경기대회, 러시아월드컵 등 굵직한 이벤트에서 빛났습니다" 예를 들어 과거에는 서버가 50Gbps정도의 트래픽을 수용할 수 있지만 대형 스포츠 이벤트에서 그 몇 배의 용량이 필요할 것으로 예상될 경우 사전에 수십대의 서버를 임대하는 고가 아니며 추가로 돈을 내고 구매해야 했어요. 그러면서 정말로 시청자가 그 정도로 내몰리거나 트래픽이 과연 3배까지 항상 그렛도우쯔오날는지를 입증해야만 예산을 확보할 수 있었지만, 예측하기 어려웠다. 주저하면서 표결을 미루다 실제 그 정도 예상 트래픽이 발생하면 시스템은 결국 죽은 셈이다.하지만 이제는 아마존의 인프라가 한계에 도달하지 않는 한 무한히 서버를 늘 그랬던 것처럼 할 수 있다. 클라우드 전환으로 서비스 품질이 개선되고 고객 만족도도 높아졌지만 실제로 직원 만족이 더 높다. 원래는 서버가 다운돼 페이지가 열리지 않으면 직원들이 밤늦게 회사로 뛰쳐나가 즐겁지 않기 때문에 사고를 파악하고 고쳐야 했습니다. 사용자가 등을 돌리면 결말 시스템보다 관리자에게 책임이 주어지기 때문에 클라우드는 이런 열악한 상황에서 가장 효율적인 선륙지였다.


    일례로 예전에는 종료된 작품의 홈페이지를 모두 열기 어려웠다. 과거 프로그램 데이터에 새로운 데이터가 더해지면서 트래픽 용량이 늘 그랬던 것처럼 가능하면 서버를 추가로 구입해야 하는 비용 문재가 있었기 때문이다. 하지만 클라우드 전환을 하면서 이미 종료된 작품들의 홈페이지를 모두 복원할 수 있었다. 이렇게 과거의 영상 아카이브를 공짜로 풀었더니 시청자 트래픽도 늘 그렇듯 자연 선전 매출도 증가했습니다. 이른바'롱테 1현상(long tail theory)'ㅇㅇ가 나타난 것으롰다. 2016년 클라우드 전환, 다른 시스템 비용은 당신 로지만 사이트의 매출은 2배 증가했습니다.​ 또 2016년부터 세로프게사ー바ー을 구입하지 않고 현금 흐름을 굉장히 좋아했다. 신규 장비 구매비가 2015년 11억 6000만원이었으나 2018년에는 1억원 수준으로 감소했다. 원래는 인터넷 데이터 센터(IDC)사용료로 매년 약 5억원 정도를 걸었지만, 클라우드의 이전이 완전히 끝나면 이 사용료는 100%는 없어지게 된다. 클라우드는 보수비용도 필요 없다. 신규 장비 구입과 데이터센터 운영비용을 최소화함으로써 투자위험 없이 대규모 서비스 구성과 개발이 가능해졌다는 뜻이다.​*롱테 1현상:80%의 비주류 상품 예는 고객 매출이 20퍼센트는 충분히 상회할 뿐 아니라, 시장 지배자보다 많은 매출을 올리는 것을 말한다. sound악, 영화 등 콘텐츠 시장에서 기존의 이른바 블록버스터 히트곡 중심의 시장이 희귀본 마니아 중심의 시장으로 변모해 가는 것을 잘 설명한다.


    어려워서 4년째 진행 중인 것이었다 넷플릭스의 경우 클라우드 앞에 7년이 걸렸다. 클라우드로 전환한다는 것은 단순히 AWS가 제공하는 서버 본인 이기 등과 같은 물리적 인프라만을 활용하는 것을 의미하지 않는다.사실상 모든 기술을 재구축하고 운영방식을 근본적으로 바꾸는 작업이었던 기존 시스템에 적응했던 사람들의 업무방식과 조직문화를 바꿀 필요가 있습니다. 원래의 데이터를 클라우드로 당신에게 옮기는 것은 기존 데이터센터가 가진 한계점과 사고까지도 그대로 답습할 뿐이다. 좋은 인프라가 있더라도 그 장점인 확장성과 유연성을 가장 크게 활용할 수 있는 조직이 마련돼 있지 않으면 아무 소용이 없다.


    >


    따라서 AWS는 우리에게 서비스를 빠르게 혁신하기 위해 개발과 기획, 운영을 통합하는 데브 오브스(Dev Ops) 조직을 제안하고 한꺼번에 전부 바꿀 수는 없기 때문에 진취 직원 몇 명과 함께 적합한 새로운 조직을 점검해 보기로 했습니다. SBS콘텐츠 허브만으로도 직원이 120~130명은 되었기 때문에 그동안의 업무 방식을 개혁하면 실패 확률도 높아 내부의 반발도 심할 것이라고 생각했기 때문입니다. 지원자가 3명이면 한단 3명의 뚱뚱한 오푸스 조직을 만들었다. 그리고 적응하면 새로 뚱보 오브스 조직을 만들어 새끼를 낳는 방식으로 참여 인원을 늘 그랬다. 하나의 '다단계' 내부 학습의 틀을 만든 것입니다.​*뚱보 오푸스: 작은 오류나 장애기를 신속히 헤소하 전에 가서 약 5명 안팎의 인원으로 문제 발견부터 해결까지 처리하는 조직


    지금까지는 고객이 불편함을 느끼는 것을 발견하는 기획자, 실제로 불편을 해소하는 개발자, 시스템을 안정시키는 운영자가 각각 따로 있었다. 부서가 다르면 의사소통을 문서로 해 프로세스가 느려졌고 성과평가지표(KPI)가 달라져 업무 우선 순위도 제각각이었다. 그러다 보니 고객의 요구가 나쁘지 않았고 콘텐츠 환경의 변화에 맞춰 부서를 넘어 협업하고 서비스를 신속하게 업그레이드하는 것은 불가능에 가까웠다.직원들의 행동을 바꾸기 위해 자리 배치부터 바꿨다. 기획팀, 개발팀, 운영팀끼리 나쁘지 않아 누워 있으면 함께 뭉칠 수 없고, 아우이몬이니 직군별 없이 데브 오브 스팀을 만들어 모두 한 공간에 모아 놓았다. 프로젝트마다 개발자, 운영자 기획자들을 각 1~둘씩 붙어 3개월마다 이합 집산하는 방식으로 운영했습니다. 이렇게 3개월마다 자리를 이동하면서 직원들도 짐 싸는 것이 1이었다. 그래도 모두 적응했다. 프로젝트 단위로 글을 쓰고 짐을 익힌 것이 가장 큰 변화다.


    >


    그렇다. 방송이 끝나고 나쁘지 않으면 VOD빠 하나를 올리거나 나쁘지는 않은 짧은 하이라이트 클립, サム네하나 이미지 등을 만들어 입력하는 오퍼레이터가 있어야 하고 홈페이지 첫 번째 구조인 템플릿을 짜는 기획자, DB에서 데이터를 추출해 뿌리는 개발자, 페이지를 사용자의 눈에 보이게 구현하는 코더까지 협업이 필요하다. 예전에는 기획자가 사이트를 편성한 뒤 개발자에게 맡기는 식으로 절차가 어렵지 않아 알았다면 요즘은 동시에 진행되기 때문에 속도가 더 빨라졌다.클라우드 환경에서 '마이크로 서비스 아키텍처'를 실현한 것이 속도 향상의 비법이었다. 마이크로서비스란 매번 아이플리케이션 모두를 만드는 것이 아니라 영역별, 기능별로 가장 크게 개발하는 방식을 말한다. 모든 서비스를 레고블록처럼 쪼갠 뒤 비행기가 필요하면 비행기를 조립하고 자동차가 필요하면 자동차를 조립하는 것이었다, 이렇게 나눠 놓으면 개발을 담당하는 조직의 크기도 작아지고 의사결정이 나쁘지 않으며 서비스 업데이트도 쉬워진다. 이런 마이크로 서비스의 성패는 결국 개발자들이 어느 정도 아니며 많은 레고 블록, 즉 API 4를 만들어 놓느냐에 달렸다. 우리는 하나 0대, 20대, 30대 등 연령대별 콘텐츠 추천 API, 남녀 성별에 따른 컨텐츠 추천 API드라마, 예능 등 프로그램 유형별 콘텐츠 추천 API이런 형태의 블록을 너무 많이 만들어 놓았다. 코더는 이 블록을 조립할 뿐이어서 홈페이지를 개편하고 개인별 추천 기능을 강화하는 작업이 더 빨라질 수밖에 없다.


    SBS는 클라우드 전환으로 디지털 트랜스포메이션을 추진할 수 있었다. 통신비는 20~30퍼.세인트 삭감되어 시스템의 인프라 비용도 40~60퍼.세인트로 줄어들어 신규 서비스, 본인 디지털 기술에 투자한 비용도 20퍼.센트만큼 아꼈다. 개발 결과를 공동 사용하고 SBS 미디어넷 골프닷컴 스포츠빅 이벤트 사이트 등이 동반 성장하는 등 규모의 경제도 누렸다.하지만 본인의 이 과정은 절대 쉽지 않았다. 실제로 클라우드 전환 자체는 돈만 내면 한 본인이라도 할 수 있다. 송 본인은 마치 더 큰 집으로 이사해 더 큰 땅을 갖게 되는 것과 같다. 남이 이사를 대행해 준다면 이사하는 것 자체는 어렵지 않다. 그런 본인의 new 집 구조와 땅 주변 환경을 갖추지 않으면 막상 이사를 가서도 내 집에서 방황하고 제대로 농사를 짓는 경작법도 모른 채 그 가치를 누릴 수 없다. 예를 들어 AWS에도 펀딩 프로그램이 있어 어느 정도 서비스를 이용하면 기존 데이터센터에 있던 데이터를 소유자에게 클라우드로 옮기기도 한다. 이 프로그램을 활용하는 방송사도 있다. 그런 본인의 지난 수십 년간 업무 방식을 바꿔 구석에 갇혀 있던 장비와 데이터를 정리하고 버릴 것은 버리고 마스크서해야 한다. 클라우드에 복사한 것만으로 갑자기 데이터를 적재적소에 활용하게 돼 서비스의 속도가 빨라지고 비용을 절약할 수 있는 것은 아니라는 것을 본인도 경험을 통해 배웠다.​의 출처 프리미엄 경영 잡지 DBR 280호 필자의 김윤진 기자


    《관련 기사 더 보기 국가기반 인프라도 클라우드가 많은 공공분야가 스스로 나서서 신기술을 활용해야 할 IT혁신의 길 클라우드 컴퓨팅에 묻는다.


    >


    >



    댓글

Designed by Tistory.