![]() |
submitted by /u/RubiksCodeNMZ [visit reddit] [comments] |

![]() |
submitted by /u/RubiksCodeNMZ [visit reddit] [comments] |
Open Neural Network Exchange (ONNX) is a powerful and open format built to represent machine learning models. The final outcome of training any machine learning or deep learning algorithm is a model file that represents the mapping of input data to output predictions in an efficient manner.
Read more: https://analyticsindiamag.com/converting-a-model-from-pytorch-to-tensorflow-guide-to-onnx/
submitted by /u/analyticsindiam
[visit reddit] [comments]
Driver assistance technology is an incredibly active research domain – from supervised assistance functions all the way to fully autonomous driving. The best way to showcase the capabilities of novel AV approaches is to demonstrate them in a real car, but there are significant challenges to this type of deployment. Getting to the point where a new approach for multi-agent prediction, camera-based localization […]
Driver assistance technology is an incredibly active research domain – from supervised assistance functions all the way to fully autonomous driving. The best way to showcase the capabilities of novel AV approaches is to demonstrate them in a real car, but there are significant challenges to this type of deployment.
Getting to the point where a new approach for multi-agent prediction, camera-based localization or night-time obstacle detection runs in a car requires efforts on multiple levels:
The NVIDIA DRIVE AGX autonomous vehicle compute platform is designed to substantially simplify these efforts, enabling researchers to focus on what’s most important.
Research in Motion
Prof. Daniel Watzenig and the Autonomous Racing Graz team (a collaboration between Graz University of Technology and Virtual Vehicle Research) are pushing autonomous driving to the limit with driverless racing. Powered by NVIDIA DRIVE AGX, the team’s vehicle managed to secure the third place in the 2020 Roborace Season Alpha and was the highest-finishing academic team.
“Autonomous racing comes with very high requirements against software and hardware but also against weight and space. As researchers, we need to focus on trying out new approaches and iterate quickly – the NVIDIA DRIVE AGX platform is a perfect fit to these needs and has proven to be a key factor of our team’s success.” Watzenig said.
The team has published their research in papers such as Smooth Reference Line Generation for a Racetrack with Gates based on Defined Borders and Increased Accuracy For Fast Moving LiDARS: Correction of Distorted Point Clouds with more publications coming. They’ll also race in the new Indy Autonomous Challenge, competing against 30 other university teams.
Why DRIVE AGX?
The NVIDIA DRIVE AGX Developer Kit provides the hardware, software and sample applications needed for the development of autonomous vehicles. The platform is built on production auto-grade silicon, features an open software framework, and has a large ecosystem of supported auto grade sensors to choose from. The developer kit comes with unrivaled compute performance in a compact form factor, reaching up to 320 TOPs (INT8).
An ADAS and AV development platform must offer a software environment that supports established research tools. The DRIVE AGX Developer Kit supports a tailored Linux-derivate that provides a familiar environment to researchers. The possibility of running numerous popular Linux libraries makes it easy to migrate existing code.
The comprehensive NVIDIA DRIVE Software gives researchers a head start with a rich software suite that provides low-level hardware interfacing and middleware out-of-the-box.
DRIVE OS provides Hypervisor, CUDA, deep learning inference with TensorRT and camera interfacing. DriveWorks comprises tools for calibration, sensor and vehicle interfacing and recording and many additional tools and APIs. Finally, samples showcase typical AV modules that can be used as a reference.
Another important research requirement is that the development platform should be compact and durable. While it is possible to install desktop computers and additional hardware in cars to develop ADAS and AV functions, these setups typically require a large amount of space and add additional points of failure, especially since these components will likely not be auto-grade.
Getting Started with DRIVE AGX
The DRIVE AGX Developer Kit is available through the NVIDIA DRIVE Developer Program for DRIVE AGX. Please contact your NVIDIA representative (or contact us) to ensure necessary agreements have been signed before requesting to join the program. Users may only join with a corporate or university email address.
The DRIVE AGX Developer Kit comes with plenty resources to jump-start development:
* only accessible post NVIDIA DRIVE Developer Program for DRIVE AGX registration.
Like a traveler who overpacks a suitcase with a closet’s worth of clothes, most cells in the body carry around a complete copy of a person’s DNA, with billions of base pairs crammed into the nucleus. But an individual cell pulls out only the subsection of genetic apparel that it needs to function, with each Read article >
The post In Genomics Breakthrough, Harvard, NVIDIA Researchers Use AI to Spot Active Areas in Cell DNA appeared first on The Official NVIDIA Blog.
대기업에서 스타트업으로 다시 돌아가면서, 예전에 인상깊게 본 How to Start a Startup 강의를 정리해보고자 합니다. 이 강의는 총 20개로 구성되어 있고, 2014년에 스탠포드에서 진행이 되었습니다. Y Combinator 라는 유명한 액셀러레이터의 대표인 샘 알트만이 진행하였고, 다양한 스타트업 (대부분 혹은.. 모두 Y Combinator가 투자한)에서 연사들이 각 주제별로 강의를 합니다.
모든 강의를 하나하나 요약하고 정리하는 것이 아닌, ‘제품’, ‘사용자’ 와 같이 대분류에 맞춰서 묶을 수 있는 내용들을 모으고 내용 또한 블릿 포인트(bullet point)로 정리합니다. 그리고 몇가지 용어들에 대해서는 조금 더 살펴보고 따로 정리하는 것을 목표로 (e.g. CLV, Cohort Analysis 등) 하였습니다.
좋은 스타트업 아이디어를 떠올리는 방법은 한걸음 뒤로 물러서서 보는 것.
감사편지 보내기 – 팀원들이 겸손하려고 했기 때문에 가능한 일 (팀의 조직력을 높이고 팀이 신경쓰는 일을 하게하는 일종의 의식)
Q. 다양한 고객, 모두가 사랑하는 제품은 어떻게 만들 수 있을까요?
⇒ 초기에는 가장 열성적인 고객에게 집중, 그 고객들에게 맞추다보면 언젠가 일반적인 가치를 발견할 수 있을 것, 기본이 되는 기능들을 만들고 난 후에 그것을 돋보이게 하라
Q. 제품을 만드는 것과 그 외의 일 간의 균형을 맞추는 방법
⇒ 제품에 집중하면서 한쪽에서는 고객과 이야기를 해야하고, 이런 분담은 어느정도 필요하다. 중요한 것은 순환적인 피드백 고리이다.
Q. 제품에 대해 팀 내에서 의견이 서로 다른 경우 의사결정을 진행하는 방법
⇒ 고객 지원을 통해서 해결 (문의가 많은 기능에 대한 기능 순으로 해결)
무조건 고객들이 하라는대로 하는 것이 아닌, 왜 고객들이 그런 요청을 하는지 그 원천적 이유를 찾아서 해결하는 것. 각자의 버전을 만들고 대응해보는 것도 좋다.
Q. Pinterest의 비전이 초창기와 달라졌는가?
⇒ 사람들의 수집품에서 예상하지 못 했던 놀라운 것들을 찾아낼 수 있다는 사실을 나중에 알게 되었다. (사람들의 제품사용 양상이 다른 방향을 보여준다.)
초기에는 누군가 제품을 사용해준 다는 것에 흥분 했다. 재밌는 점은 회사가 성장할수록 포부도 같이 커진다는 점이다. 그래서 항상 Gap이 있다. 우리가 있는 곳과 있어야 할 곳. 객관적으로 우리는 많이 달려왔지만.. 이 Gap은 계속해서 벌어지고 있다.
스타트업이 가지고 있는 가장 원초적인 강점: 확장성 없는 일을 할 수 있는 것
페이스북 성장팀에서 했던 일
Q. 이메일 마케팅
⇒ 이메일은 25세 이하는 거의 사용하지 않는다. 메일, 문자, 앱 푸쉬는 동작 방식 전부 비슷, 스팸에 들어가면 안되므로, 우등생? 처럼 메시지를 전달하는 것이 중요하다 중요한 것은 사람들에게 전달이 되어야 하는 것이다.
이 알림은 어떤 경로를 통해 보낼 것인가가 중요하고, 그 다음은 참여를 독려하는 내용에 신경써라.
Q. 아이디어가 독점적인 사업이 될지 아닐지 구분하는 방법
⇒ 실제 시장에 집중해야 한다.
위대한 기업은 다른 기업 들과 다르게 한 단계 더 뛰어넙는 진보가 있었다고 본다.
다른 사람 혹은 심지어 고객의 의견까지도 받지 않고 가는 경우도 있다.
Q. 어떤 팀, 회사에 투자를 하나요?
⇒ 처음 만나고 1분 정도 이야기하는 동안 정리가 된다. 이 사람이 리더인지, 자신의 제품에 대해서 집중하고 있는지 (질문: 사업을 하게 된 계기), 그 다음으로 보는 것이 커뮤니케이션 능력 → 리더쉽과 훌륭한 커뮤니케이션 능력 이 2가지를 갖추고 있어야 한다.
⇒ 일반적인 2가지.
VC 투자 활동은 극히 예외적인 경우만 다루는 게임이다.
4000 개 → 200개만 투자 → 그중 15%가 97%의 수입을 가져다 줌
강점이 큰 회사에 투자할 것인가, 약점이 없는 회사에 투자할 것인가
체크 리스트 만으로는 그 팀이 가지고 있는 강점을 제대로 파악할 수 없다.
결점이 있는 회사를 제외 시키면 15% 안에 회사에 드는 회사를 얻기 어렵다.
Q. 초기 자본이 많이 필요한 스타트업에 대해서는 어떻게 하는가?
⇒ 양파 리스크이론을 다시 언급하면, 리스크를 없앨 수 있는 더 구체적인 계획이 필요할 것이다.
Q. 안 좋은 투자자는 무엇인가?
⇒ 네트워크가 부족하거나, 도움을 받을 수 있는 것이 없는 경우, 투자자를 고르는 것은 결혼 상대를 고르는 것이나 마찬가지이다. 약 15~20년 동안 서로를 의지하고 기대면서 같이 나아가는 것이기 때문.
한번 창업가는 영원한 창업가이다.
투자자를 만났을 때, 이 사람이 존경할 만 한가, 배울 점이 많은 가를 고려해보아라.
피투자사와의 관계는 신뢰를 기반으로 해야 한다.
VC의 가장 큰 제약사항은 결국 큰 기회비용이다. 한 분야에서의 최고를 투자하려고 한다.
Q. 제품이 없는 팀이 투자를 받을 방법은?
⇒ 팀이 중요하다. 기본적으로도 팀을 보고 투자하기 때문.
Q. 투자철학을 하나의 문장으로 만드는 것이 필요한가?
⇒ 한 문장으로 정리할 수 있을 정도로 명확한 투자철학을 가지고 있어야 한다. (엘레베이터 피치)
Q. 적합한 시장을 찾는 것 vs 시장을 만들어가는 것
⇒ 굉장히 어려운 문제이다. 투자 철학을 검증하는데 있어, 이 방향이 과연 시장의 존재유무를 확인하는 데에 도움이 되는가이다. 여러분은 현존하지 않는 시장이 여러분만이 알고 있는 근거에 따른 역발상 때문에 창조 가능하다는 주장을 명료하게 펼칠 수 있어야 한다.
이것들은 회사의 가치와 원칙으로 변하게 된다.
Q. 문화란 무엇일까? → 기업의 문화는 무엇이 되어야 하는가?
⇒ Set of Values?
Q. 기업 문화란 무엇일까?
⇒ 핵심가치, 행동 혹은 행위, 사명감 (목표)
Q. AirBnB 시나이로
⇒ 너무 잘나서 불편하게 할 정도의 팀을 만드는 것이 중요하다. (훌륭한 공동창업자)
제품을 만들고 나면, 회사를 만들어야 한다. → 우리는 오래살 수 있는 회사를 만들고 싶었다. 길게 가는 회사들의 공통점 → 분명한 임무를 가지고 있고, 명확한 가치를 가치며 협업할 수 있다는 것.
Q. 어떻게 집주인들이 AirBnB의 문화를 따르게 할 수 있는가?
⇒ 집주인들은 문화와 맞지 많아도 된다고 생각했지만, 아니였다. (문제가 생기는 등..), 그 이후로는 ‘슈퍼집주인’ 프로그램을 통해서 문화를 따르는 집주인들을 더 대우해준다.
Q. 회사를 만들면서 가장 중요하게 생각했던 요소는?
⇒ 누구를 채용하는가? 채용된 사람들이 무엇을 중시하는지, 우리가 매일 무슨 일을 하는가 또 왜 하는가?, 우리가 소통하기로 선택한 것들, 마지막으로 찬양할 것은 무엇인가?
⇒ 내부 투명성을 더 강조, 모든 직원들이 회사가 하는 바를 지지하고 믿을 수 있도록 하기 위함 (정보를 원활히 접근할 수 있고 상태를 알 수 있다면 도움이 될 것)
⇒ 사내 문화 정립은 다양한 문제를 풀 수 있음, 사람들이 늘어나면서 직접적으로 영향을 끼치는 영향도는 줄어들 수 밖에 없음.
초기에 사람을 10명을 데려오는 것은, 이 사람들이 데려올 90명의 사람들에 대한 영향력까지 고려를 해야하기 때문에 굉장히 조심해야 하는 일이다.
Q. 초기 채용을 하고 올바른 문화를 퍼트리기 위해 한 행동은?
⇒ 언젠가 이루고 싶은 목표를 직원들에게 계속해서 상기시킴, 왜냐하면 누군가에게 문제가 주어지면, 그 사람은 직면한 문제가 세상의 전부라고 생각하게 되기 쉽기 떄문. 많은 시간을 들여서 채용을 한 다음에 입사 후 30일간의 경험을 개선하기 위해 노력한다. (예를 들어, 이름을 아는 동료직원은 있는지? 자신의 매니저가 누군지? 팀원들과 만나고 있는지? 회사에 전반적인 구조는 아는지? 최우선 목표들은 아는지? 이런 프로그램들을 계속해서 발전 시키고 평가함)
⇒ 1. 직원들이 바쁘게 진짜 일을 하는 것. 이렇게 해야만이 실제 문제들을 찾아내고, 얼마나 진척이 됐는지를 알 수 있다. 강하게 적응시키려고 한다. 2. 최대한 빨리 피드백을 주려고 한다. 특히 사내 문화 적응 관련 피드백은 더 빠르게 하려고 한다. (Stripe의 문화 중 하나는 글을 통해서 소통을 하려고 한다.)
Q. Stripe는 어떻게 투명성을 확장시켰는지 궁금하다.
⇒ 스타트업은 정치적인 문제들에 휩싸이지 않은 조직이라고 정의를 했다. 대기업에서는 여러가지 일들이 얽혀있으면서.. 제품에는 최선의 방향이 회사차원에서는 문제가 될 때가 있을 것이다. 하지만 모든 사람들이 한 방향으로 나아가는 스타트업에서는 모든 정보를 공개할 수 있다. Stripe는 초기에 발송되는 모든 이메일에 전직원을 참조시켰다. 일어나는 일들을 미리 알고 있다면, 미팅을 따로 가질 필요가 없다고 생각했다. 하지만 확장에 문제가 있었던 것은 사실이다.
⇒ 첫째는 툴을 바꾼 것이고, 둘째는 확장에 맞춰서 문화를 발전시킨 것이다.
툴은 모든 이메일 공유 → 이제는 매주 취합한 형태로 정보를 공유 (덱을 만들거나..)
문화 이야기는 엄청난 양의 정부가 내부 공개가 되어있고, 이에 따른 사내 규범들이 규정되어 있다.
Q. 초기맴버를 사내문화 관점으로 접근할때 중요하게 본 요소는?
⇒ 같이 일하고 싶으면서 또 재능있는 사람들,
사내문화는 건설한다고 생각하지만.. 내가 보기에는 정원을 가꾸는 일이다.
초기에는 창업자와 비슷한 사람들을 찾으려고 했다. (아주 별난 사람들이기도 함)
우리는 많은 분야에 관심을 가지고 있으면서 한 분야에서는 최고의 전문가인 이런 창의적이고 별난 사람들이 대단한 제품을 만들고 협력에도 뛰어남을 보았다.
우리는 위대한 무언가를 만들고 싶어 하는 사람들이다. 초기 환경을 고려하면 순수한 이유만을 가지고 합류했다.
채용이 이뤄지는 장소, 뛰어난 사람들은 다른 무언가를 하고 있을 확률이 높고 정말 다양한 장소에서 만날 수 있다. 우리는 그런 사람들을 찾아더녀야 한다.
⇒ 신규채용은 장기간 동안 지인의 지인들을 장기간 설득하는 과정이였다.
아직 알려지지 않은, 저평가되고 있는 실력자들
엘레베이터 피치를 하듯, 사람들에게도 이런 과정을 지속해야 한다.
⇒ 첫 10명의 경우, 아주 진실되고 정직했다는 것. 다른 사람들이 같이 일하고 싶은 사람으로서 주변에 믿음을 주고, 문제 접근에 대해 지적으로 솔직한 사람들
특정분야를 파는데 2년을 쏟은 누군가와 일을 하는 것이 당연히 훨씬 더 흥미로운 일, 사소한 디테일이라고 신경을 쓰는 사람들, 그리고 일을 끝마칠 수 있는 사람들
Q. 어떻게 뛰어난 사람을 알아보는 방법은??
⇒ 같이 일해보기 전까지는 100% 확신할 수가 없다.
재능은 2가지 부류로 나뉜다.
그 분야에서 세계적인 권위를 가진 사람들과 이야기하면서 그들은 무슨 요소들을 살피는지를 물어보는 것을 습관화하였다. 여기서 무슨 질문을 해야하는지 또한 알 수 있었다.
인터뷰에서의 질문들은 이 사람이 와서 일하기에 적합한가에 대한 답을 줄 수 있어야 한다.
(예를 들어, 문제를 해결하기 좋아하는 사람들에게 구글이 내는 기발한 문제들)
왜 이 아이디어가 좋은 아이디어인지 솔직하게 말하되, 어떤 점들이 어려울지 끔찍할 만큼 디테일들을 늘어놓는 것이 필요하다. (아이폰을 위한 채용 때에는 무슨 일을 하게 될지도 말을 안 했다고 한다. 3년간 가족을 볼 수 없겠지만 일이 끝나면 당신의 아이들의 아이들까지 당신이 만든 걸 기억하게 될 것이다.)
주위 사람들의 평을 받는 것도 중요하다. 경험이 있는 사람들에게 의견을 구하는 것이기 때문. (예를 들어, 인터뷰 때 우리는 모두 조나단을 압니다. 몇주 뒤에 그와 이야기를 하려고 합니다. 그에게 당신이 가장 잘하는 것, 가장 자랑스러워 하는 것, 당신이 나아지려고 하는 부분을 물어본다면 뭐라고 대답했을 것 같나요??)
그 다음에는 가볍게 느껴질 수 있는 질문을 조금 더 게량적으로 느끼게 만들 수 있는 질문을 하고 장기간에 걸쳐 측정을 진행 (예를 들어, 이 사람은 이 부분에서 평가하기에 같이 일했던 사람들 중 상위 1%입니까? 아니면 5%입니까? 아니면 10%입니까?) 상대평가를 강제하면 더 객관적인 평가를 받을 수 있다. 그냥 괜찮다는 말은 도움이 덜 될 수 있다.
⇒ 여러분이 원하는 방식대로 인터뷰를 이끌어 갈 수 있는 자신감이 필요하다. 보통 잘 모르면 알려진 방법들을 따라하게 되는데, 이것보다는 스스로 방법을 알아내는 것이 더 좋은 효과를 준다. (예들 들어, 엔지니어 → 코딩 테스트가 아닌 옆에서 코딩을 하게 하고 그 것을 지켜보는 것, 비즈니스 업무 → 프로젝트 위주로 이야기, 기존 프로젝트를 어떻게 발전시킬지, 어떤 새로운 프로젝트를 하고 싶은지 이야기)
⇒ 첫 10명의 경우, 최대한 일을 많이 해보고 뽑는 것이 필요하다. 모두와 적어도 최소 1주일은 일해보았다. 그리고 한가지 짚고 넘어갈 점은 사람들은 직접 경험하기 전까지는 첫 10명 채용과 사내문화 문제의 중요성을 깨닫지 못한다는 점.
Q. 회사가 10명으로 1000명 규모로 성장함에 따라 채용과 팀관리 정책에 대한 변화는??
⇒ 팀 관리 측면에서는 각각의 팀들이 더 큰 조직에 속한 한계 내에서 최대한 독립적이라고 느끼면서 민첩한 대응이 가능하게 하는 것. 시간에 걸쳐 회사를 여러 스타트업으로 이뤄진 스타트업으로 느끼게 만드는 것. (규격화된 프로세스들 아래 있는 거대한 회사가 아닌..)
한 가지 목표는 각각의 팀이 성과를 이루는데 필요한 자원에 대한 통제권을 가지게 하는 것, 제일 중요한 일이 무엇인지, 어떻게 측정해야 할지 알게 하는 것. 이것들이 이뤄지면 팀 관리가 어느 정도 가능해진다.
각각의 그룹 내에서 해결이 가능하게 하고 싶다. 문제를 어렵게 만들기는 하지만, 이것이 제품을 만드는데 있어 Pinterest가 가지고 있는 철학의 중심가치이다. 여러 분야의 사람들을 모아 놓으면 각자 다른 흥미들을 가지고 있다. 그들을 하나의 프로젝트로 묶고 걸림돌들을 없애주어 마음껏 능력을 펼치게 해주는 것.
채용은 회사 규모가 커짐에 따라서.. 네트워크를 통해서 더 많은 사람을 모을 수 있게 된다. 15 번째 직원이 스타트업과 대기업을 다 경험하면서.. 이런 경험들이 도움이 많이 되었다.
⇒ 변화에 따라서 시간의 길이가 급격하게 변하게 된다. 초기에는 1달 로드맵을 보고 있었다면, 후에는 1년후 나중에는 5년후를 보게 된다. 우리는 미리 계획하고 대비해야 한다.
초기에는 당장의 생산성을 중심으로 사람을 구하게 될 것이다. 그 이후에는 장기적인 관점으로 사람을 채용해야 한다.
시스템을 통해서 문제를 푸는 방법을 고민해야 한다.
Q. 어떻게 사람들에게 스타트업 합류를 하라고 설득할 수 있나요?
⇒ 불확실성이야말로 스타트업이 사람들에게 울림을 줄 수 있는 이유라고 생각한다. 성공이 확실하다면 지루하지 않을까요? 그리고 또 하나의 중요한 동기는 개인 성장 측면이다.
⇒ 무엇이 어려울 것인지, 당신의 최선의 계획은 무엇인지 말해보라. 그리고 그 사람의 역할이 왜 핵심적인지 말해줘라. 반대하는 점은 이 모든 것들을 눈가림 하는 것이다. 예를 들어, 이 문제를 정말 풀고 싶은지 알려면 다른 어떤 회사들에 지원했는지 물어보라. 보통은.. 문제에 집중하는 것이 아니라 괜찮은 회사를 가고 싶은 것이면 유명한 기업들의 리스트가 나올 것이다. 그들은 목적을 이루기 위해서가 아니라 경험을 위해서 합류한 사람들이기 때문이다.
Stripe의 경우는 초기의 4명의 Stripe 사용자들을 채용했다. 다른 방법으로는 구할 수 없었던 인재들이었고, 자신이 좋아하는 제품에서 일하는 것이기에 혜택을 제공했을 것이다.
Q. 사람을 관리하는 방법에 대해서 조금 더 상세하게 알고 싶다.
⇒ 최대 2주에 1번씩은 만나서 1대1 이야기를 해봐라. 토의사항은 매니저가 아니라 직원들이 정할 수 있어야 한다. 정말 신뢰가 쌓였을 경우에는 한달에 1번 정도로 늘릴 수 있을 것이다.
Q. 임원을 해고 또는 강등을 할 때, 어떤 식으로 당사자와 대화하고 어떤 식으로 주변에 설명하는가?
⇒ 누군가를 해고할 때 가장 중요한 것은 솔직해지는 것이다. 감정적이나 감상적은 맞는 방법이 아니다. 채용에서의 실패가 있었다는 것을 인정하고 문제점을 찾아야 한다. (해결의 좋은 시작점)
여러분은 누군가의 직업을 뺐을 수도 있고, 또 그래야만 합니다. 하지만 누군가의 자존심까지 뺏어서는 안 됩니다. (당신의 말이 그 사람의 평판이 될 것, 회사의 문제도 확실하게 인지해야 할 수 있어야 한다.)
Q. 당신에게 반목하던 사람을 자기 편으로 만드는 방법?
⇒ 리더로서 더 나은 방향을 제시할 수 있어야 한다. 말 그대로 당신의 방식이 더 나아야 합니다.
Q. 다른 사람의 입장에서 생각하는 팁
⇒ 일상에서도 어렵지만, 비즈니스에서는 더 어렵다.
아직 절차를 갖춰놓지 않았다면, 잠시 멈춰서 생각을 하세요. 리더가 되기 위한 중요한 자질은 잠시 멈출 줄 알아야한다는 겁니다. 중요한 일이 있는데 아직 생각을 깊이 생각해보지 못 했다면.. 솔직하게 이야기를 해라. “중요한 문제라고 생각하고 다양한 관점을 모두 고려해서 답을 하고 싶다.”
*김치 문제: 작은 감정적인 문제로 숲 전체를 태우는 일 (깊숙히 묻을수록 숙성되는 것??)
조직의 일관된 목소리를 유지하라.
결론 : 여러분이 배울 수 있는 가장 중요한 일이자 CEO 로서 가장 어려운 일이 바로 스스로가 회사를 직원들과 파트너들과 관점에서 바라보도록 훈련시키는 일이다. 여러분과 이야기하고 있지 않고 한 공간에 있지 않은 사람들의 관점에서 말입니다.
Q. 탄약을 언제 많이 뽑아야 하나요?
⇒ 엔지니어의 경우에는 10~20명 정도가 충분할 것 같고, 포가 준비되었을 때 탄약을 뽑는 것이 맞다고 본다. 디자이너의 경우에는 조금 다르다.
X (총 생산량) / Y (팀원의 수) → 이 값을 가지고 직무평가를 한다고 해야 한다.
이럴 경우 Y 는 늘어나지 않을 것이다.
Q. 위임과 책임 그리고 디테일에 대한 조화를 어떻게 이룰 것인가?
⇒ 디테일을 잡는 다는 철학은 기업 초기에 매우 중요하다. 기준을 잡는 일이 때문.
그래야 나중에 들어온 사람들도 이 기준에 맞춰서 일을 할 수 있게 될 것이다. 문화는 곧 결정을 내리게 하는 사고의 틀이다.
Q. 스타트업이 인터뷰를 할때 실수하는 것들은?
⇒ 제품을 보여주지 말라. 제품을 보여주는 것은 기능에 대해서 말해주는 것과 같다.
사람들의 머리속에 있는 것을 파악해야지, 새로운 것을 넣으면 안 된다.
실제로 인터뷰해야 하는 사람이 아닌 대화 가능한 사람을 하는 경우가 많다. 실제 사용자가 누구인지 알아내는 과정이 필요하다.
Q. 회사 내 다른 사람들을 설득하는 방법
⇒ 인터뷰를 녹음해라. 만약 여러분이 어떤 것을 만들어야 된다고 주장하고 싶으면, 그저 인터뷰를 재생해주면 된다.
Q. 인터뷰를 어떤 툴을 통해서 진행했는가?
⇒ 이메일보다는 Skype와 같은 툴에서 진행해야 한다. 가장 흥미로운 포인트들은 “흥미롭군요, 좀 더 말씀해주세요” 에서 옵니다. 의도하지 않았던 순간에서 핵심이 나온다. (상호적인 피드백이 중요한 이유)
Q. 글로벌 시장에서의 인터뷰는 (다른 언어의 사용자들)?
⇒ 한국 시장의 경우, 통역자를 구해서 인터뷰를 해봤으나 실제 사용자의 대표를 구하기 어려운 문제가 있다.
Q. 인터뷰 대상자를 구하기 위한 채널과 보상은?
⇒ Twitch의 경우, 회사 웹사이트 내의 메시지 시스템이였다. (채널), 돈을 지불하면서 대화를 할 필요는 없었다. 보통 문제를 직시하고 있는 사람들은 보상없이 자신이 원하는 바를 이이기 한다.
Q. 사이트 자체적인 유저 피드백 도구들이 있나요?
⇒ 중요한 두번째 종류의 유저 피드백이 있다. 우리는 문제를 발견하는 것에 집중했기 때문에 사이트가 없었다.
Q. 제한된 리소스 상황에서 하나의 고객군에 집중해야 한다면?
⇒ 우리는 경쟁 제품을 사용하는 사람들에게 집중했다. 이미 우리가 요구하는 행동에 관심이 있었고, 이런 요구를 만족하면 옮길 것이라고 생각했기 때문이다. 또 회사 상황상 빠른 성장을 해야하는 상황이였다.
Q. 게임 퍼블리셔는 어떻게 대하였는가?
⇒ 누구도 대화를 하려고 하지 않았다. 제품을 사용자들이 많이 쓰게되면서 자연스럽게 퍼블리셔에게 우리가 중요해졌고, 대화를 하게 되었다.
제품은 계속해서 변화하고 그 때에 맞는 사람들과 대화를 하는 것이 중요하다.
Q. 사용자 입장에서 좋은 피드백을 주는 방법
⇒ 생각하는 진짜 문제를 이야기해줬으면 좋겠다. 횡성수설 했으면 좋겠고.. 그냥 아무 말이나 해줬으면 좋겠다. 그 사람에 대한 컨텍스트를 알 수록 무엇을 원하는지 알 수가 있다.
훌륭한 제품을 만드는 것에서 훌륭한 회사를 만드는 일로 변경 된다.
Q. 다양성에 대해서..
⇒ 원하는 것은 배경의 다양성이지, 비전의 다양성이 아니다. 배경의 통일은 획일화된 문화로 이기어지 때문이다.
Q. 개인적인 차원에서 생산성을 끌어올리는 방법
⇒ 3달에서 12달정도 시간 동안 해야하는 목표를 적은 종이를 만드는 것. + 매일보기
별도로 단기 리스트, 모든 사람들에 대한 리스트 (하는 일, 나눈 대화, 그외 정보들)
Q. 스타트업이 잘 실패하는 방법
⇒ 실패하고 있다면, 투자자들에게 말을 하고.. 자금이 바닥나지 않도록 해야한다. 빠르게 행동해야 한다. (직원들에게도, 투자자들에게도)
Q. YC 내 이민자 출신의 창업자 수
⇒ 41% 정도??
Q. 전문적인 CEO를 고용하기에 적절한 시기는?
⇒ Never, 창업자가 계속해서 운영을 하는 것, 좋은 제품을 만드는 관점으로는 꼭 그래야 한다
Q. YC가 스타트업을 선정하는 기준, 그리고 시간이 지나면서 변하는지?
⇒ 좋은 창업자와 좋은 아이디어. 기준은 변하지 않았다.
Q. 좋다고 생각하는 시장이 있지만, 아직 많이 알지 못하는 경우의 접근 방법
⇒ 1) 그냥 바로 들어가는 것, 하면서 배우라.
⇒ 2) 그 분야에 있는 회사에서 일하거나, 그 시장에서 1~2년간 무엇이라도 하는 것
후자를 약간 더 추천한다. 그러나 사용자에 대해 정말 제대로 배울 생각이 있다면 크게 상관 없다
이번 기회에 다시 정리를 해보면서 내용들을 여러번 다시 보게되었습니다. 대략 7년이 지난 지금에도 적용이 되는 이야기가 대부분이라고 생각합니다. 각 강의에서 창업자들의 인사이트가 느껴지기도 하구요. 스타트업이 성장하고 커가는 방식은 다양할 수 있지만, ‘훌롱햔 제품을 만드는 것’ 이 가장 기본이 되는 방식일 것입니다.
언젠가는 훌륭한 제품 그리고 훌륭한 회사를 만들고, 위 강의처럼 인사이트를 공유해보고 싶네요.
![]() |
submitted by /u/karball [visit reddit] [comments] |
Facebook AI researchers this week announced SEER, a self-supervised model that surpasses the best self-supervised systems.
Facebook AI researchers this week announced SEER, a self-supervised model that surpasses the best self-supervised systems, and also outperforms supervised models on tasks including image classification, object detection, and segmentation.
Combining RegNet architectures with the SwAV online clustering approach, SEER is a billion-parameter model pretrained on a billion random images.
Instead of relying on labeled datasets, self-supervised learning models for computer vision generate data labels by finding relationships between images with no annotations or metadata. Such models are considered key to developing AI with “common sense,” says Yann LeCun, Facebook AI’s chief scientist.
After using a billion public Instagram images for pretraining, SEER achieved 84.2 percent accuracy on the popular ImageNet dataset, beating state-of-the-art self-supervised systems. The researchers also trained SEER using just 10 percent of images in the popular ImageNet dataset, still achieving nearly 78 percent accuracy. Even when trained with just 1 percent of ImageNet, the model was over 60 percent accurate.
SEER was trained on 512 NVIDIA V100 Tensor Core GPUs with 32GB of RAM for 30 days, said Facebook software engineer Priya Goyal. The researchers used mixed precision from the NVIDIA Apex library and gradient checkpointing tools from PyTorch to reduce memory usage and increase training speed of the model.
The researchers chose RegNet architecture for its ability to scale to billions or trillions of parameters while accommodating runtime and memory constraints. The SwAV algorithm helped achieve record performance with 6x less training time.
“Eliminating the need for human annotations and metadata enables the computer vision community to work with larger and more diverse data sets, learn from random public images, and potentially mitigate some of the biases that come into play with data curation,” wrote Facebook AI in a blog post. “Self-supervised learning can also help specialize models in domains where we have limited images or metadata, like medical imaging.”
Facebook also open-sourced VISSL, the PyTorch-based general-purpose library for self-supervised learning that was used to develop SEER.
Read more from Facebook AI.
The full paper is available on ArXiv.
The effectiveness of any machine learning method is critically dependent on its training data. In the case of reinforcement learning (RL), one can rely either on limited data collected by an agent interacting with the real world, or a simulated training environment that can be used to collect as much data as needed. This latter method of training in simulation is increasingly popular, but it has a problem — the RL agent can learn what is built into the simulator, but tends to be bad at generalizing to tasks that are even slightly different than the ones simulated. And obviously building a simulator that covers all the complexity of the real-world is extremely challenging.
An approach to address this is to automatically create more diverse training environments by randomizing all the parameters of the simulator, a process called domain randomization (DR). However, DR can fail even in very simple environments. For example, in the animation below, the blue agent is trying to navigate to the green goal. The left panel shows an environment created with DR where the positions of the obstacles and goal have been randomized. Many of these DR environments were used to train the agent, which was then transferred to the simple Four Rooms environment in the middle panel. Notice that the agent can’t find the goal. This is because it has not learned to walk around walls. Even though the wall configuration from the Four Rooms example could have been generated randomly in the DR training phase, it’s unlikely. As a result, the agent has not spent enough time training on walls similar to the Four Rooms structure, and is unable to reach the goal.
Instead of just randomizing the environment parameters, one could train a second RL agent to learn how to set the environment parameters. This minimax adversary can be trained to minimize the performance of the first RL agent by finding and exploiting weaknesses in its policy, e.g. building wall configurations it has not encountered before. But again there is a problem. The right panel shows an environment built by a minimax adversary in which it is actually impossible for the agent to reach the goal. While the minimax adversary has succeeded in its task — it has minimized the performance of the original agent — it provides no opportunity for the agent to learn. Using a purely adversarial objective is not well suited to generating training environments, either.
In collaboration with UC Berkeley, we propose a new multi-agent approach for training the adversary in “Emergent Complexity and Zero-shot Transfer via Unsupervised Environment Design”, a publication recently presented at NeurIPS 2020. In this work we present an algorithm, Protagonist Antagonist Induced Regret Environment Design (PAIRED), that is based on minimax regret and prevents the adversary from creating impossible environments, while still enabling it to correct weaknesses in the agent’s policy. PAIRED incentivizes the adversary to tune the difficulty of the generated environments to be just outside the agent’s current abilities, leading to an automatic curriculum of increasingly challenging training tasks. We show that agents trained with PAIRED learn more complex behavior and generalize better to unknown test tasks. We have released open-source code for PAIRED on our GitHub repo.
PAIRED
To flexibly constrain the adversary, PAIRED introduces a third RL agent, which we call the antagonist agent, because it is allied with the adversarial agent, i.e., the one designing the environment. We rename our initial agent, the one navigating the environment, the protagonist. Once the adversary generates an environment, both the protagonist and antagonist play through that environment.
The adversary’s job is to maximize the antagonist’s reward while minimizing the protagonist’s reward. This means it must create environments that are feasible (because the antagonist can solve them and get a high score), but challenging to the protagonist (exploit weaknesses in its current policy). The gap between the two rewards is the regret — the adversary tries to maximize the regret, while the protagonist competes to minimize it.
The methods discussed above (domain randomization, minimax regret and PAIRED) can be analyzed using the same theoretical framework, unsupervised environment design (UED), which we describe in detail in the paper. UED draws a connection between environment design and decision theory, enabling us to show that domain randomization is equivalent to the Principle of Insufficient Reason, the minimax adversary follows the Maximin Principle, and PAIRED is optimizing minimax regret. This formalism enables us to use tools from decision theory to understand the benefits and drawbacks of each method. Below, we show how each of these ideas works for environment design:
Curriculum Generation
What’s interesting about minimax regret is that it incentivizes the adversary to generate a curriculum of initially easy, then increasingly challenging environments. In most RL environments, the reward function will give a higher score for completing the task more efficiently, or in fewer timesteps. When this is true, we can show that regret incentivizes the adversary to create the easiest possible environment the protagonist can’t solve yet. To see this, let’s assume the antagonist is perfect, and always gets the highest score that it possibly can. Meanwhile, the protagonist is terrible, and gets a score of zero on everything. In that case, the regret just depends on the difficulty of the environment. Since easier environments can be completed in fewer timesteps, they allow the antagonist to get a higher score. Therefore, the regret of failing at an easy environment is greater than the regret of failing on a hard environment:
So, by maximizing regret the adversary is searching for easy environments that the protagonist fails to do. Once the protagonist learns to solve each environment, the adversary must move on to finding a slightly harder environment that the protagonist can’t solve. Thus, the adversary generates a curriculum of increasingly difficult tasks.
Results
We can see the curriculum emerging in the learning curves below, which plot the shortest path length of a maze the agents have successfully solved. Unlike minimax or domain randomization, the PAIRED adversary creates a curriculum of increasingly longer, but possible, mazes, enabling PAIRED agents to learn more complex behavior.
But can these different training schemes help an agent generalize better to unknown test tasks? Below, we see the zero-shot transfer performance of each algorithm on a series of challenging test tasks. As the complexity of the transfer environment increases, the performance gap between PAIRED and the baselines widens. For extremely difficult tasks like Labyrinth and Maze, PAIRED is the only method that can occasionally solve the task. These results provide promising evidence that PAIRED can be used to improve generalization for deep RL.
Admittedly, these simple gridworlds do not reflect the complexities of the real world tasks that many RL methods are attempting to solve. We address this in “Adversarial Environment Generation for Learning to Navigate the Web”, which examines the performance of PAIRED when applied to more complex problems, such as teaching RL agents to navigate web pages. We propose an improved version of PAIRED, and show how it can be used to train an adversary to generate a curriculum of increasingly challenging websites:
Above, you can see websites built by the adversary in the early, middle, and late training stages, which progress from using very few elements per page to many simultaneous elements, making the tasks progressively harder. We test whether agents trained on this curriculum can generalize to standardized web navigation tasks, and achieve a 75% success rate, with a 4x improvement over the strongest curriculum learning baseline:
Conclusions
Deep RL is very good at fitting a simulated training environment, but how can we build simulations that cover the complexity of the real world? One solution is to automate this process. We propose Unsupervised Environment Design (UED) as a framework that describes different methods for automatically creating a distribution of training environments, and show that UED subsumes prior work like domain randomization and minimax adversarial training. We think PAIRED is a good approach for UED, because regret maximization leads to a curriculum of increasingly challenging tasks, and prepares agents to transfer successfully to unknown test tasks.
Acknowledgements
We would like to recognize the co-authors of “Emergent Complexity and Zero-shot Transfer via Unsupervised Environment Design”: Michael Dennis, Natasha Jaques, Eugene Vinitsky, Alexandre Bayen, Stuart Russell, Andrew Critch, and Sergey Levine, as well as the co-authors of “Adversarial Environment Generation for Learning to Navigate the Web”: Izzeddin Gur, Natasha Jaques, Yingjie Miao, Jongwook Choi, Kevin Malta, Manoj Tiwari, Honglak Lee, Aleksandra Faust. In addition, we thank Michael Chang, Marvin Zhang, Dale Schuurmans, Aleksandra Faust, Chase Kew, Jie Tan, Dennis Lee, Kelvin Xu, Abhishek Gupta, Adam Gleave, Rohin Shah, Daniel Filan, Lawrence Chan, Sam Toyer, Tyler Westenbroek, Igor Mordatch, Shane Gu, DJ Strouse, and Max Kleiman-Weiner for discussions that contributed to this work.
Everything we do on the internet — which is just about everything we do these days — depends on the work of clusters, which are also called pods. When we stream a hot new TV show, order a pair of jeans or Zoom with grandma, we use clusters. You’re reading this story thanks to pods. Read article >
The post What Is a Cluster? What Is a Pod? appeared first on The Official NVIDIA Blog.
Florida orange juice is getting a taste of AI. With the Sunshine State’s $9 billion annual citrus crops plagued by a fruit-souring disease, researchers and businesses are tapping AI to help rescue the nation’s largest producer of orange juice. University of Florida researchers are developing AI applications for agriculture. And the technology — computer vision Read article >
The post Juicing AI: University of Florida Taps Computer Vision to Combat Citrus Disease appeared first on The Official NVIDIA Blog.