최종 업데이트 날짜: 2019/10/25
2019/08/21 - 카탈로그 업데이트
2019/09/05 - 9대 추가
2019/09/21 - 작가 정보 업데이트
2019/10/11 - 10개 이상의 얼굴 경전 업데이트
2019/10/25 - 알리바바 다모 아카데미 업데이트
1. Huawei, DJI, Toutiao, Alibaba, Baidu, Alibaba, Tencent, JD.com 및 Xiaomi의 전체 개요
2. 2020년 텐센트 컴퓨터 비전 알고리즘 학사 및 석사 비전공 석사 985명 인턴십 면접
3. 바이두 컴퓨터 비전 하계 인턴십 인터뷰
4. JD컴퓨터비전 인턴십 면접
5. Oppo는 C++ 면접을 사전 승인합니다.
6. Midea는 Python 데이터 마이닝 엔지니어를 사전에 승인합니다.
7. 모모테크놀로지 이미지 알고리즘 인턴
8. 바이두 프론트엔드의 세 가지 측면
9. 캄브리아기: 딥 러닝 엔지니어
10. 홈페이지 2019.7.24
11. 바이두
12. 텐센트
13. 핀둬둬2019.8.13
14. 모구거리 2019.8.14
15. NetEase Interactive Entertainment 게임 개발
16. 360 검색(랭킹) - 머신러닝 엔지니어
17. NetEase 인터넷: 딥 러닝 엔지니어
18. SF Express sp 및 ihandy 소 고객 특별 판매
19. 디디 니우케 sp 스페셜 세션
20. Kuaishou Niuke sp 특별 세션
21. 이투
22. 텐센트
23. 비전
24. 바이두
25. 소고우
26. 오포
27. 58 같은 도시에
28. 화웨이
29. 알리바바 다모 아카데미
메모
저는 학사 학위와 석사 학위가 985점입니다(학교 순위가 낮습니다). 저는 컴퓨터 관련 지식이 없으며 관련 CV 프로젝트를 수행했지만 상사가 주도했습니다. 여러 대회.
Tencent 컴퓨터 비전 알고리즘 채용
어떤 인터뷰를 진행했든 인터뷰 내용을 전반적으로 기억함
어떤 면접이든 항상 자기소개를 먼저 하고, 1분 동안 자신의 장점을 설명하고, 때로는 단점에 대한 자신의 견해를 간략하게 언급하기도 합니다.
관련 인턴십에 참여해 보셨는지, 어떤 프로젝트를 진행하셨는지, 얼마나 많은 게임을 플레이하셨는지, 어떤 직책을 맡으셨는지? 나에게 익숙한 게임을 중심으로 알고리즘의 원리와 게임 결과 분석을 다음에 다시 플레이하면 순위를 높이는 방법을 자세히 설명하겠습니다. 게임을 플레이함으로써 얻는 이득은 무엇입니까? 산업계와 과학 연구의 차이점이 무엇이라고 생각하시나요?
일반 985 석사학위인데, 내부 추천 없이 Baidu CV 여름 인턴십 제안을 받았습니다.
별로 어렵지 않고, 면접관들이 매우 친절하고, 세 차례의 면접과 이력서 기반 프로젝트가 있고, 그런 다음 확장을 시작합니다.
요약: 내 동생은 몇 가지 기본 알고리즘, 데이터 구조, 의사 결정 트리 및 일반적인 이미지 처리 알고리즘의 구현 방법에 대한 연구에 집중할 것을 제안합니다.
요약: 기본적으로 양측의 모든 질문은 프로젝트에 관한 것이며, 다른 질문은 프로젝트의 문제 해결 및 오류 분석을 위한 아이디어에 더 집중하기 위한 것입니다.
요약: 면접관들은 비교적 전문적이며, 모르는 척하지 마세요.
작성자: 이 너머의 자매를 전달하세요.
작가 : 슈이이슈이
1. 자기소개 답변 : 일상적인 업무의 물결, 기본정보 + 기술력 + 소프트파워.
2. 참여했던 대회나 프로젝트에 대해 알려주세요. 답: 포스터는 경쟁에 대해 이야기했습니다.
3. 이미지 모델에는 일반적으로 무엇이 사용됩니까? 답: 포스터에서는 심층신경망을 주로 사용한다고 하며 프로젝트에 대한 이야기를 나눴습니다.
4. 딥러닝이나 머신러닝에 대해 어떤 모델을 알고 있나요? 답변: 원본 포스터에서는 딥러닝을 통해 프로젝트에서 resnet을 언급했습니다. 머신러닝에서는 대회에서 일반적으로 lgb와 xgb를 사용하고 일부는 LR을 사용하기도 했습니다. 이전 대회에서는 이런 종류의 대회도 사용했습니다. 이런 종류의 경쟁에는 자연어가 더 잘 작동합니다.
5. 어떤 데이터베이스를 사용해 보셨나요? 답변: 많이 사용하지는 않습니다. AWS의 RDS 데이터베이스를 사용해 보았지만 SQL 문은 모두 배웠습니다.
6. 이제 삽입하고 업데이트할 수 있는 테이블이 생겼습니다. 이를 구현하기 위해 SQL을 사용하는 방법은 무엇입니까? 답변: 삽입하고 업데이트하세요.
7. 방금 말씀하신 내용은 두 개의 문입니다. 이를 하나의 문으로 구현하는 방법은 무엇입니까? 답: 한동안 멍하니 아무 생각도 나지 않았습니다. 면접관은 아마도 자주 사용하지 않을 수도 있다고 말했습니다. 나는 그렇다고 말했습니다. 데이터베이스는 일반적으로 크지 않으며 진술 수에 대한 요구 사항은 그리 엄격하지 않습니다.
8. 주로 어떤 언어를 사용하시나요? 파이썬? 답변: 글쎄요, 최근에는 Python을 더 많이 사용하는데, 방금 등록한 프로젝트는 실제로 C++로 진행되었습니다.
9.주로 어떤 Python 패키지를 사용하시나요? 답: 그림을 그리는 데 Sklern, numpy, pandas, matplotlib 등이 한동안 멍하니 다른 생각이 나지 않았습니다.
10.팬더 인덱스는 어떤 용도로 사용되나요? 답변: 데이터가 조정되는데, 이는 데이터베이스의 기본키와 다소 유사합니다. (이렇게 답변을 잘 못한 것 같은데, 면접관이 눈치채셨는지 모르겠네요...)
11. 나에게 어떤 질문이 있나요? 답변: 이 직위는 높은 엔지니어링 기술을 요구합니까? 아니면 높은 알고리즘 기능이 필요합니까? 면접관이 저를 따라오지 않아도 된다고 하더군요. 그냥 그룹에서 면접을 주선한 것 뿐이에요. 작성자는 조금 당황스러워했어요. 그러자 면접관은 어쨌든 알고리즘을 구현해야 한다고 말했습니다. 그런 다음 포스터는 또 다른 질문을 했습니다. 즉, 직책을 지원할 때 그룹 IT 부서와 메이윤 인텔리전트 데이터라는 두 개의 부서가 있다는 것을 알았습니다. 이 두 부서에서 이 직책을 수행하는 데 큰 차이가 있습니까? 면접관이 잠시 대답했다. . .
작성자: EternityY
작성자: Xiaoan, 달려요! !
(1) 위챗 미니 프로그램과 Vue의 차이점 (위챗 미니 프로그램을 만드는 프로젝트가 있기 때문이죠)
(2) Vue 구성 요소 간 통신의 Vuex 원칙
(3) 일반적으로 사용되는 ES6의 새로운 기능
(4) 맵 및 세트 구조
(5) 비동기 요청 Promise 및 Async 대기
(6) 등분할의 원리를 이용하여 삼각형 그리기
(7) 부채꼴 모양을 그린다
(8) 애니메이션 구현 animation 및 requestAnimationFrame
(9) 사전 요청 옵션 가져오기 요청에 대해 알고 계시나요? 교차 도메인
(10) 웹 보안
(11) 화면에서 1픽셀과 같은 물리적 픽셀과 논리적 픽셀의 크기는 얼마나 됩니까?
(12) 상자 크기 속성
(13) TCP와 UDP의 차이점
(14) 이진 트리 순회를 이해합니까? 선주문 순회를 통한 순회 방법. . .
(1) Balabala는 프로젝트를 소개하면서 겪은 어려움에 대해 많이 물었습니다. (솔루션에서는 setTimeout을 사용했기 때문에 다음 Promise 및 Async/await가 확장되었습니다.)
(2) ES6의 일부 기능과 ES6 배열 방식의 차이점
(3) Set 구조의 키 값은 어떤 모습입니까(불분명)
(4) Set 외에 배열 중복을 제거하는 다른 방법이 있습니까?
(5) 비동기 작업이란 무엇입니까? 약속 및 비동기/대기
(6) Promise를 사용하여 .then()을 통해 요청된 데이터를 얻기 위해 이 메서드를 호출하여 Ajax 요청을 캡슐화합니다.
(7) 요청을 보내는 방법은 무엇입니까? 아약스와 같은
(8) 크로스 도메인: 왜 크로스 도메인이 있나요? 동일 원산지 정책이란 무엇입니까? 상위 도메인과 하위 도메인 간에 리소스를 공유하는 도메인 간 문제를 해결하는 방법은 무엇입니까?
(9) 모바일 단말기 프로젝트를 해본 적이 있나요? (해봤는데 잊어버렸어요) 모바일 단말기에 적응하는 방법
(10) 모바일 단말기 스와이프 및 애니메이션 (직접 구멍을 팠습니다. 원래는 아무렇지도 않게 이야기하고 싶었지만, 주로 모바일 단말기에서 작동하는 것으로 나타났습니다.) 다음 페이지를 표시하기 위해 위로 슬라이드하는 효과를 얻는 방법 스와이퍼 플러그인을 사용하지 않고요? 모바일에서는 어떤 이벤트를 이용할 수 있나요?
(11) 페이지 URL 매개변수를 얻는 방법
(12) 이벤트 위임 메커니즘
실제로 2차 면접에서는 이력서에 기재한 내용과 답변에 포함된 지식 포인트를 바탕으로 주로 질문을 합니다.
(1) 프로젝트 배경, 실시 이유, 실시 효과 및 문제점 등을 고려하여 프로젝트를 소개합니다. 오랜 시간 얘기를 하다보니 말이 부족하고 명확하게 설명할 수 없는 것 같아서 화제를 바꿨습니다.
(2) 언제부터 프론트엔드를 배우기 시작했고, 왜 항상 프론트엔드 방향을 고수하시나요?
(3) 화웨이에서 인턴십을 하는 동안 그 외에 어떤 일을 했나요?
(4) 화웨이 인턴십을 통해 무엇을 배웠나요? 자신의 능력에 어떤 개선이 있었나요?
(5) 프론트엔드를 배우는 이유와 프론트엔드에 대한 이해.
(6) 학교에서 회사 인턴십으로의 전환은 무엇입니까?
(7) 당신은 지금 어떤 새로운 것을 배우고 있습니까? (아니요, 기본 지식을 보고 있습니다.) 그러면 어떤 지식과 응용 시나리오가 있는지 예를 들어 보겠습니다.
(8) 프론트엔드 프레임워크는 왜 3가지가 있나요? 그들은 어떤 문제를 해결합니까?
(9) 당신은 어떤 압력에 직면했고 그것을 어떻게 해소했습니까?
(10) 어떤 어려움이 있었고 어떻게 해결했습니까? ? (동료에게 조언을 구합니다) 어떻게 의사소통하고 조언을 구하나요?
(11) 당신은 어떤 단점이 있다고 생각하시나요? 실무 경험이 부족하다는 얘기입니다. (좋은 일은 아닌 것 같습니다.)
(12) 기초를 다지면서 새롭게 배운 내용은 무엇인가요? ES6 구문, 웹 보안. . . 이어서 웹 보안에 대해 자세히 이야기를 나눴습니다. 다시 질문합니다. XSS 공격은 감지하기 어렵습니다. 이 문제를 어떻게 감지합니까? .
(13) 장래 진로 계획
(14) 어떤 배경 언어에 노출되었나요?
(15) 이전에 다른 회사와 만난 적이 있나요?
(16) 지금 다른 제안을 받고 있나요?
(17) 프론트엔드 지식은 주로 어떻게 배우시나요?
(18) 인턴십을 할 시간이 있나요? 시간이 없어요. 마지막 에세이를 써야 해요
(1) 프론트엔드의 향후 발전 전망은 어떻다고 생각하시나요?
(2) 부서, 사업, 기술 스택에 대해 질문했습니다.
링크: https://www.nowcoder.com/discuss/231656
2019.7.16: 전화인터뷰로 인해 버프가 진행 내내 중단되었습니다.
1. 자기소개를 해주세요
2. Python과 C++의 차이점(많은 Python 기능에 대한 답변)
3. 파이썬은 왜 느린가요?
답변: 데이터 종류를 모르기 때문에 데이터를 받을 때 판단이 필요합니다.
(1. Python은 동적 해석 언어입니다. Python의 값은 캐시에 저장되지 않고 개체에 분산됩니다.
2. Python은 인터프리터 언어입니다. C++과 Java는 모두 컴파일된 언어입니다. 즉, Java 프로그램을 작성한 후에는 먼저 소스 프로그램을 컴파일하고 실행 파일과 클래스 파일을 생성해야 합니다. Python으로 프로그램을 작성한 후 인터프리터에 제출하면 인터프리터는 즉시 코드의 첫 번째 줄을 기계어 코드로 번역한 다음 이 코드 줄을 CPU에 전달하여 실행하고 다음 줄로 진행하여 두 번째 줄을 번역합니다. 코드를 작성한 다음 실행을 위해 CPU에 전달합니다. 따라서 Python은 컴파일된 언어보다 느리게 실행됩니다.
3. 어떤 책을 읽었나요? (답: Python 고성능 프로그래밍)
4. 메모리 누수란 무엇입니까? 메모리 누수는 언제 발생하나요?
삭제되지 않았습니다.
(동적으로 적용된 메모리 공간은 정상적으로 해제되지 않으며, 계속 사용할 수 없습니다. 메모리는 해제되지 않습니다.)
5. 프로그램 종료 기간은 무엇입니까?
모르겠어요!
(프로세스를 종료하는 것일 수도 있습니다. 확실하지 않습니다)
6. 포인터와 참고자료는 무엇입니까? 언제 포인터를 사용하고 언제 참조를 사용합니까?
(포인터는 초기화할 필요가 없지만 참조는 초기화해야 하며 바인딩 후에는 변경할 수 없습니다. 함수에 포인터를 전달하는 것과 포인터에 참조를 전달하는 것의 차이점은 다음과 같습니다.
포인터를 전달할 때 포인터가 먼저 복사됩니다. 복사된 포인터는 함수 내에서 사용됩니다. 이 포인터는 원래 포인터와 동일한 주소를 가리킵니다. 원래 포인터에 영향을 미칩니다.
포인터 참조 전달의 경우, 전달된 포인터가 새 객체를 가리키는 경우 원래 포인터도 새 객체를 가리키게 되며, 이로 인해 메모리 누수가 발생합니다. 전달된 포인터가 새 개체를 가리키지 않지만 함수가 끝나면 포인터를 해제합니다. 그러면 원래 메모리가 해제되었기 때문에 원래 포인터를 더 이상 함수 외부에서 사용할 수 없습니다.
7. 해당 데이터 구조를 알고 있나요?
답변: 힙 배열 목록 스택
8. 힙이란 무엇입니까?
답변: 일반적으로 우리는 힙을 시뮬레이션하기 위해 배열만 사용합니다. 실제 구조는 알 수 없습니다. 부모 노드-자식 노드 상태의 데이터 구조라고 생각합니다(일반적으로 할당 및 해제되는 초고주파 문제). 프로그래머에 의해. 프로그래머가 해제하지 않으면 프로그램 종료 시 OS(운영체제)에 의해 회수될 수 있다. 할당 방식은 프로그램이 실행되는 동안 스택이 나누어져 열리는 것과 유사하다. 커널은 연결 목록을 따라 프로그램에 제공할 만큼 충분한 공간을 찾습니다. 찾지 못한 경우 쓸모 없는 메모리를 파괴하고 다시 검색하십시오. 자세한 내용은 직접 요약하고 적용 방법을 자주 검토하십시오. , 시스템 응답 등)
9. 힙과 스택의 차이점
스택은 물건을 저장하는 공간으로 가장 안쪽에 저장되었다가 가장 바깥쪽에서 나옵니다(초고주파 문제, 함수 실행 시 할당되고 함수 종료 시 해제됨). 함수 실행을 위해 할당된 로컬 변수를 저장하는 컴파일러입니다. 함수 매개변수, 반환 데이터, 반환 주소 등은 아래쪽으로 열리며 로컬 성능이 좋으면 레지스터와 상호 작용하여 저장됩니다. PC 포인터. 함수 매개변수가 많으면 스택 프레임을 형성하여 스택에 저장됩니다.
10. 프로세스와 스레드
(초고주파 문제, 컴퓨터 시스템을 깊이 이해한 후 요약을 읽었습니다. 1. 프로세스는 살아있는 프로그램입니다. 프로그램은 단지 텍스트일 뿐입니다. 실행 중인 프로그램은 프로세스이며, 이는 프로세스의 기본 단위입니다. 시스템의 리소스 스케줄링 및 할당을 마스터합니다. 메모리 등을 포함한 리소스 스레드는 CPU 스케줄링 및 디스패치의 기본 단위입니다. 2. 프로세스가 리소스를 차지하기 때문에 스택 푸시 및 팝핑이 느립니다. 따라서 스위칭이 유연하지 않고 쓰레드가 자원을 점유하지 않고 꼭 필요한 자원만 점유하므로 (재귀는 스택에 push를 해야 하기 때문에 자원이 좀 있음) 쓰레드 통신이 용이하다 -> 프로세스가 할당한 메모리에서 직접 통신한다. , 동시성이 용이 -> 유연한 전환, 동일 프로세스의 스레드 전환 속도가 매우 빠르므로 스레드 오버헤드가 작음 3. 주소 공간, 프로세스 독립성, 동일한 프로세스의 스레드가 리소스를 공유하고 다른 스레드와 독립적임 다른 프로세스)
이벤트 후 요약: 분명히 실패했지만 매우 기뻤습니다. 알고리즘 작업을 하는 사람들도 백엔드에 대해 알아야 할 사항을 이해하게 되었습니다. 알고리즘 분야의 엔지니어는 역량을 갖추어야 합니다.
숙제 도움
한 면당 90분
먼저 두 가지 질문을 해보세요:
1. 배열에서 세 개의 숫자를 찾으세요. 세 숫자의 합과 값의 차이가 가장 작습니다.
시간 O(n2) 공간 O(1) 필요
내 작성 방법은 정렬 + 이중 포인터입니다. leecode에 대한 원래 질문입니다. leecode를 많이 다루지는 않았지만 다행히 해결책은 동일합니다.
퀵 정렬을 이용한 정렬 요청
2. 문자열 A, B, B는 A의 가장 짧은 하위 시퀀스를 차지합니다(A의 가장 짧은 하위 시퀀스에는 B가 포함됨).
Python의 슬라이스 + in 연산자가 네 줄로 끝났기 때문에 면접관과 저는 둘 다 웃었고, 면접관도 웃었기 때문에 in 단계에 대한 함수를 직접 작성하기로 합의했습니다.
폭력은 모든 문제를 해결합니다
1. Kaggle 대회 소개 (EDA부터 끝까지)
2. ID3C4.5와 같은 기본 트리는 이진 트리입니까, 아니면 다중 트리입니까? 잘린 특징이 다시 잘리나요?
이산형 특징(이산형 수 > 2)은 다중 분기 분류이고 연속형은 이진 분할입니다. 연속형은 잘라낼 수 있지만 이산형은 구현할 수 없습니다. 최대 정보 이득 위치를 확인한 후 분할 후 이 특징을 세트에서 삭제하면 이산형 특징이 더 이상 잘리지 않습니다. 다행히도 연속적인 특징을 다시 잘라낼 수 있습니다. , 다른 사람의 ID3 트리 및 다른 트리의 소스 코드 살펴보기로 이동)
3. BN 소개
(소개할 수 있는 초고주파 질문이 많이 있습니다. 머신러닝의 본질은 분포, 특히 로그손실 손실을 학습하는 것인데, 이는 교차 엔트로피를 최적화하는 것과 동일하며 교차 엔트로피는 분포의 일관성을 측정하는 데 사용됩니다. 1. 사전 미백, 빠른 훈련, 시그모이드 양쪽 끝의 작은 포화 기울기, BN을 선형 영역으로 확장할 수 있음 2. 분포 학습, NN이 깊어지면 각 레이어의 분포가 이동하고 BN 압축 분포 각 레이어의 분포를 동일한 3에 가깝게 만들면 BN은 어느 정도 데이터 확장으로 간주될 수 있으며 데이터는 지터링됩니다. BN 훈련 프로세스 중에 현재 배치가 정규화되고 전체 데이터가 예측에 사용되며 BN 레이어에는 최적화할 하이퍼파라미터가 2개 있습니다.) 4. GBDT 또는 RF 중 어느 트리가 더 깊습니까?
RF 깊이. 부스팅과 배깅에 대한 아이디어에 대해 이야기했습니다. Boost는 편차를 맞추기 위해 낮은 분산 학습기를 사용하므로 XBG 및 LGB는 트리 깊이에 대한 매개변수 설정을 갖습니다. RF는 다양한 샘플 세트를 구성하기 위해 샘플과 기능을 잘라내며 각 트리는 가지치기도 하지 않습니다.
5. XGB 기능의 중요성은 어떻게 판단되나요?
답변: 잘 모르겠지만 많이 사용되는 것 같습니다. 분할 지점 수(모든 트리에서 발생하는 수)를 기준으로 한 것 같습니다.
(gain Gain은 모델의 각 트리에 대한 각 특성의 기여도를 취하여 계산된 모델에 대한 해당 특성의 상대적인 기여도를 의미합니다. 다른 특성에 비해 이 측정값이 높을수록 예측 생성에 중요하다는 의미입니다. .
커버 커버리지 측정항목은 이 기능과 관련된 관측치의 상대적인 수를 나타냅니다. 예를 들어, 100개의 관찰, 4개의 특징 및 3개의 트리가 있고 특징 1이 트리 1, 트리 2 및 트리 3에서 각각 10, 5 및 2개의 관찰에 대한 리프 노드를 결정하는 데 사용된다고 가정하면 이 메트릭은 계산됩니다. 이 함수의 적용 범위는 10 5 2 = 17개 관측치입니다. 이는 4개 기능 모두에 대해 계산되며 모든 기능에 대한 적용 범위 측정항목을 17의 백분율로 나타냅니다.
freq 빈도(빈도)는 모델 트리에서 특정 특징이 발생하는 상대적인 횟수를 나타내는 백분율입니다. 위의 예에서 feature1이 각 트리 1, 트리 2 및 트리 3에서 2개 분할, 1개 분할 및 3개 분할로 발생하면 특성 1의 가중치는 2 1 3 = 6이 됩니다. 특성 1의 빈도는 모든 특성의 가중치에 대한 백분율 가중치로 계산됩니다. )
6. XGB는 회귀 및 이진 분류를 이해하기 쉽습니다. 다중 분류를 이해하는 방법은 무엇입니까?
수다를 떨며 웃으면서 처음에는 레이블 인코딩에 대해 onehot+softmax를 사용했는데 소프트맥스보다 한 단계 먼저 각 트리를 맞추는 방법에 대해 답변했습니다. 저는 이것을 정말 몰랐습니다. 면접관은 100그루를 지을 것인지, 300그루를 지을 것인지 세 가지 범주에 대해 이야기하라고 재촉했고 나는 그것을 깨닫고 100그루인 줄 알았다고 대답했습니다.
면접관은 300개의 트리를 구성하고 세 가지 범주에 맞는 다음 소프트맥스를 적용하라고 말했습니다.
(onehot 이후에는 입력 레이블이 벡터이고, 벡터의 각 예측 지점마다 트리 그룹이 통합됩니다.)
양쪽 55분
1. 먼저 NLP를 전공하시는지 여쭤보겠습니다.
아니요, 알고리즘 방향에서는 실험실 프로젝트에 대해 이야기하고 많은 이미지의 NN 알고리즘을 사용합니다.
2. 세 가지 질문
질문 1: K번째로 큰 숫자
세 가지 방법이 논의되었습니다.
방법 1: 힙 정렬 분석의 복잡도는 O(Nlogk)입니다(분석이 정확함).
방법 2: 퀵 정렬 이진 분석의 복잡성은 O(N)입니다.
방법 3: 조회 테이블 분석 복잡성 정렬(NLogN)
요구사항은 O(N)이므로 두 점에 대해 빠른 정렬을 사용했습니다. 면접관은 빠른 정렬이 이 문제를 해결할 수 있다고 말했습니다. 그러나 퀵 정렬은 (내가 아는 한) 가장 빠르며 정확히 필요한 O(N) 복잡성입니다.
(Baidu를 검색 한 후 빠른 정렬 및 해싱은 가장 빠르며 나머지는 빠르지 않습니다).
나는 Python Code를 손으로 썼지 만, IDE가 나를 촉구하지 않았으며, 면접관은 또한 Niuke를 사용한 사람들이 편집의 오류를보고 할 수 있다고 말했다. 그래서 다음 질문은 C ++로 작성되어야한다고 말했습니다 (이것은 문제가 매우 심각합니다. 인터뷰 중에 버그를 찾을 수 없었으므로 Python에 대해주의해야하고 버그가 없어야합니다. 그렇지 않으면 버그가 없어야합니다. 항상 C ++를 사용하십시오)
두 번째 질문 :
바닥 N 3, 판자 1 3, 여러 배열
DP [N] = DP [N-1]+DP [N-3]
질문 3:
동일한 확률 1-7
동일한 확률 생성 1-10, 예상 통화 수를 분석하십시오 1-7
7베이스, 두 번 전화하여 0-48을 생성 한 다음 40 및 40 이상을 자른 다음 // 4 1
기대치는 비례적인 시리즈의 합이되기 쉽지 않으며, 대략 2.5n 구두를 계산했습니다.
그것에 대해 생각하면 면접관이 압력을 받고 있었기 때문에 나는 빠른 분류에 의문을 제기했다. . 면접관의 수준에 문제가 없어야합니다 (PS : 면접관의 능력이 좋지 않다고 생각하지 마십시오. 대부분의 면접관은 잘 알고 있습니다) 감사합니다, 숙제 도우미
매우 효율적으로, 나는 이력서를 제출 한 후 어느 날 인터뷰를했습니다.
첫 번째 인터뷰는 매우 순조롭게 진행되었으며, 두 번째 인터뷰는 100 분 동안 지속되었습니다.
한쪽 : 너무 매끄럽고 노트북에 아무것도 기록하지 않았기 때문에 답이 유창해서 Q & A 레코드에 아무것도 기록하지 않았습니다. 첫 번째 질문 LIS : 나는이 질문의 모든 요구 사항을 말한 후에도 최적의 상황을 조용히 썼다가 면접관에게 왜 올바른지 설명했다. n^2) 글쓰기 방법. 두 번째 질문을 잊어 버렸습니다. 1 분 안에 양측을 끝냈습니다. 모두 열린 질문이며, 표준 답변이없고, 지속 시간은 100 분이며, 주로 실제 권장 시나리오와 경쟁에 관한 것입니까? , 나는 각 단계에서의 일과 각 단계에서의 일에 대해 이야기했다. (맞습니다. 면접관이 듣고 싶어하는 것은 아마도 다양한 단계에서의 저의 작업, 내가 직면 한 문제, 문제에 대한 내 생각 및 해결책) 검색 결과에 대한 사용자 만족도를 어떻게 측정한다고 생각하십니까? 남쪽. 난 너무 남부 해요. 그러나 TCP 연결 타이밍, 비디오 길이의 백분위 수를 사용한 비디오 장면, 초 반격의 효과 등과 같은 장면에 따른 필터링 타이밍 노이즈에 대해 이야기했습니다. 면접관은 이것에 만족할 수 있습니다. 그런 다음 뇌를 쌓아서 또 다른 좋은 기능을 생각할 수 없었기 때문에 Quary의 상관 관계와 같은 약한 기능을 사용했습니다. 면접관은 불만족 스럽습니다. 이러한 것들은 주로 만족보다는 사용자의 관심을 나타냅니다. 새로운 검색 결과를 추진하는 문제를 어떻게 해결할 수 있다고 생각하십니까? 답변 : 새로운 검색 결과의 푸시 기록이 0이어야하며 참조가 없지만 품질이 무엇인지 모릅니다. 그래서 그는 승진을 위해 무작위로 소수의 사용자에게 밀어 넣었습니다. 홍보 할 때 클릭률이 높아지는 현상에주의를 기울이면 필터를 필터링하십시오. 면접관은 매우 만족했습니다. 장면과 모델에 대해 어떻게 생각하십니까? 나는 개인적으로 자신의 과학적 연구 경험에서 시작하여 수박 책의 도입에 대해 이야기하고, 나의 완전한 정신 여행을 전합니다. 면접관은 만족할 수 있습니다. 나는 몇 가지 질문을 잊어 버렸습니다. 너무 많은 사람들이 그들에 대해 이야기 한 후에 내 목소리를 잃었습니다 면접이 끝난 후에는 의심의 여지가 없었다. 면접관이 나를 이렇게 비난했을 때, 나는 그가 나를 정복했기 때문에 바이두에 가고 싶었다.
내부 권장 사항은 없으며 공식 웹 사이트에 직접 작성된 이력서는 1 일 또는 2 일 안에 인터뷰를하는 것 같습니다. . 원래 제가 가장 좋아하는 회사 였지만 지금은 더 이상 아닙니다. Tencent 학교 모집
의도 된 부서 TEG 직접 전화 : 연구 게시물
자신을 소개하고 프로젝트에 대해 이야기하십시오
우리 섹션에 관심이 있습니까 : 부서 로그 탐지 보안 필드
서로를 이해하십시오
회의가 있습니다. 다음에 계속 채팅합시다
10시 : 지난번에 대해 우리가 말한 것에 대해 계속 이야기
전체 과정은 비교적 편안하고 즐거웠습니다
두 번째 회의는 끝났지 만, 상태는 여전히 두 번째 회의가 정리되어야한다는 것입니다. . .
면접관과 함께 머신 러닝 방법을 사용하여 위험한 로그 탐지를 처리하는 방법에 대해 토론하십시오. 처음부터 배운 주요 지식을 검토하는 것도 자기 반성으로 간주됩니다. 여기서 얻을 수있는 더 두드러진 경험은 많은 부서가 여전히 규칙 학습에 중점을두고 기계 학습 분류 상황에 대한 강력한 해석 성 요구 사항이 있다는 것입니다. 따라서 트리 모델 및 LR과 같은 해석 성이 우수한 모델은 매우 인기가 있습니다. 그러나 결국 면접관은 나에게 "감사했다", 아마 내가 실패했다는 것을 암시 할 것이다.
필기 시험에서 5 개의 질문 중 3 개 반에 A가 있다고 들었고 점수는 괜찮 았지만 부서는 이력서를 잠그었다. . .
나는 양측에 알렸고 몇 분 후에 그들은 자연스럽게 대화를 나누고 9 월에 계속 만날 것이라고 말했다.
현재 프로세스가 끝났고 논리적으로 말하면,이 부서에는 머신 러닝 직책이 없었습니다 EMM ~를 모집 해야하는 사람의 수
Pinduoduoduo 감사합니다
한편:
자기 소개
과학 연구 프로젝트 소개
Kaggle 경쟁 소개
Tencent 경쟁 소개
RNN을 사용한 적이 있습니까?
LR을 사용 했습니까?
XGB와 LGB의 차이점 :
나는 3 점, 특징 정렬, 피처 세분화, 히스토그램 및 전체 정렬 만 생각합니다.
그는 공통점이 많았으며 GBDT, XGB 및 LGB를 언급 한 다음 실제 영향을 기억했다 XGB는 LGB보다 열등하지는 않지만 조정 인삼은 처리하기 쉽지 않으며 LGB는 매우 빠릅니다.
(
1) 더 빠른 훈련 속도와 높은 효율 : LightGBM은 히스토그램 기반 알고리즘을 사용합니다.
2) 히스토그램 차이 가속도 : 아동 노드의 히스토그램은 부모 노드의 히스토그램에서 형제 노드의 히스토그램을 빼서 계산을 가속화하여 얻을 수 있습니다.
3) 메모리 사용량 낮추기 : 불연속 통을 사용하여 연속 값을 저장하고 교체하면 메모리 사용량이 줄어 듭니다.
4) 더 높은 정확도 (다른 개선 알고리즘과 비교) : 잎 별 분할 방법을 사용합니다 (분할을 위해 모든 현재 잎 노드 중 가장 큰 스플릿 이익을 가진 노드를 선택하는 등은 재귀 적으로 분명합니다. 이 방법은 상대적으로 높은 깊이에 빠지기 쉽기 때문에 과적하기 쉽기 때문에 최대 깊이를 측정해야합니다. (과도하지 않으면) 각 레이어의 모든 노드에서 무차별 분할이 생성됩니다. 이것이 더 높은 정확도를 달성하는 주요 요인입니다. 그러나 때때로 과적으로 이어질 수 있지만 | Max-Depth |
5) 빅 데이터 처리 기능 : XGBOOST와 비교하여 교육 시간의 감소로 인해 빅 데이터를 처리 할 수 있습니다.
6) 병렬 학습을 지원합니다.
7) 로컬 샘플링 : 큰 기울기 (큰 오류)를 갖는 샘플을 유지하고 작은 그라디언트가있는 샘플 샘플을 샘플 수를 줄이고 컴퓨팅 속도를 증가시킵니다.
)
코드 관련 질문의 경우 면접관에게 C ++ 또는 Python을 선택하도록 요청하십시오 (모든 면접관이 같은 방식으로 응답 한 것 같습니다).
내 선택은 파이썬입니다.
체스 판에 체스 조각이 있습니다.
dp [i] [J] = max (dp [i-1] [j], dp [i] [J-1])
체스 [i] [J] == '체스 조각'인 경우 :
DP [I] [J] = 1
에르 미안 : 좋은 대답이 아니라 멋지다고 생각합니다.
내장 된 인터럽트 버프가있는 또 다른 면접관은 내 생각을 엉망으로 만들고 있습니다.
1. GBDT 및 XGB
(GBDT, XGB 및 LGB는 언급 된 모든 프로젝트에서 마스터해야합니다)
2. Bn, 드롭 아웃
(드롭 아웃은 심층 신경망을 훈련하기위한 대안으로 사용될 수 있습니다. 각 훈련 배치에서 기능 감지기의 절반을 무시하여 숨겨진 레이어 노드의 절반에 값이 0을 갖도록하십시오. 물론이 "반"입니다. 하이퍼 파라미터는 직접 설정하면 과적으로 적합한 현상을 크게 줄일 수 있습니다.
드롭 아웃은 단순히 다음을 의미합니다. 순방향 전파 중에 특정 뉴런의 활성화 값이 특정 확률로 작동하지 않도록하면 특정 지역 특성에 너무 많이 의존하지 않기 때문에 모델을보다 일반화 할 수 있습니다.
실제로, 서브넷 조합을 구성하는 것은 포장 전략입니다. )
3. LR을 먼저 사용하지 않는 이유 (LR을 쉽게 사용하는 이유는 무엇입니까?) 두 가지 분류 및 스태킹에 LR을 사용하는 것이 매우 좋지만 LR은 항상 표현성이 충분하지 않으며 기능이 평균이 될 수 있습니다. 더 두꺼운. 4. Tencent Competition Features는 왜 데이터를 교차 할 수 있습니까? 버킷은 더 균일합니다. 연속적인 기능이 교차됩니다. 연속 기능이 개별 기능으로 매핑되면 연속 기능과 함께 포함 층으로 전송 될 수 있습니다. 5. AUC를 알고 있습니까?
내가 그것을 확인했을 때, 나는 그것이 잘못된 것을 들었다.
(회귀를위한 AUC와 같은 것은 없습니다)
6. 어느 쪽이 개발, 힙 또는 스택을 더 빠르게합니까?
MMP는 그가 말한 것과 완전히 반대했으며, 그가 말하는 것을 깨닫는 데 오랜 시간이 걸렸습니다. 내가 말하는 것은 편집 중에 힙이 할당되므로 스택을 확장하거나 축소 할 필요가 없으므로 느리게 진행됩니다 (이전 답변을 참조하십시오. 틀린 답변)
7. 과부하 및 재 작성
(다시 쓰기는 가상 함수의 재 작성입니다. 당시에는 잘못 대답했습니다. 소위 과부하는 동일한 이름을 가진 함수의 매개 변수 목록이 다르다는 것을 의미합니다. 컴파일 중에 함수의 이름이 바뀔 것입니다. , 실행 중에는 더 이상 동일한 이름이 없으며, 하위 클래스가 상위 클래스의 비 빈약 한 기능을 재 작성하면 다시 쓰는 것이 아니며, 다시 쓰는 것은 가상 함수의 재 작성입니다. )
8. 빅 데이터를 사용하여 가장 인기있는 100 개의 쇼핑 아이템을 찾는 방법
작은 해시 테이블 힙을 만듭니다
9. 맵의 하단 레이어를 만드는 방법
나는 아직 기본 코드를 보지 않았다고 말했다. (그건 그렇고, 나는지도와 같은 것이 있다는 것을 결코 알지 못했습니다. 방금 해시 테이블을 손으로 만들었습니다. 시간이있을 때 STL 소스 코드 분석을 살펴볼 계획입니다).
(기본 레드 블랙 트리, O (로그 (N) 검색, 삽입 및 삭제 데이터 구조)
인덱스 복잡성에 관해서는, 로그 (n)는 갑자기 이진 트리라는 것을 깨달았습니다.
10. O (1) 하나가 있습니까? 내가 그것을 닦은 후에 해시 테이블이 있었기 때문에 갑자기 나에게 새벽이었다.
해시 테이블 충돌이 있으면해야 할 일
Zip Heavy Hash가 현재 1
(동일한 고주파 문제, 지퍼 : 연결된 목록, 충돌은 링크 된 목록의 끝에 있습니다. 감지 : 선형 감지, 현재 값 1과 같은 2 차 감지;
사실, 나는 STL에 능숙하지 않습니다. 나는 STL 라이브러리 기능을 사용하는 것을 좋아하지 않으므로 STL에 잘 어울리지 않습니다. STL 소스 코드 분석의 물결을 읽을 시간을 기다리십시오.
모구지에
인터뷰 경험은 매우 좋았고, 첫 번째와 두 번째 인터뷰는 매우 순조롭게 진행되었으며, HR 인터뷰가 이미 통과되었으며, 중간에있는 크로스 뷰 만 누락되었습니다. 처음으로 인터뷰 통지를 받았을 때 링크를 열었을 때 인터뷰 시간, 편집 가능한 상자, 확인 버튼 및 포기 버튼이있는 인터페이스에 인터뷰가있었습니다. 프롬프트는 읽기 : 확인을 클릭하면 시간을 변경할 수 없습니다. 나는 종금 버튼을 클릭하지 않았기 때문에 HR에 전화를 걸어 물었고 그들은 내가 원하는 당시 포기할 수 있다고 말했습니다. 두 번째 인터뷰 에서이 상자의 프롬프트가 변경되면 확인을 클릭하면 시간이 변경되지 않으면 적절한 시간을 작성하고 취소를 클릭하십시오. 나는 HR이 정말 좋다고 생각했기 때문에 두 번째 인터뷰에서 HR의 작업에 대한 나의 만족, 지원 및 감사를 열렬히 표현했다. 그래서 HR 인터뷰가 통과되면 남은 유일한 것은 크로스 인터뷰라고 생각합니다.
그러나 나는 진실을 말하고 있습니다. 나는 그들의 HR을 정말 좋아합니다.
두 가지 질문을 소개합니다
첫 번째 코스 :
1000 내에서 가장 큰 소수
Python은 O (1) 공간에서 소수 생성기 및 스크리닝 방법을 구현할 수 있지만 작성되지 않았으며 Bool이 직접 판단하고주의를 기울이지 않으면 작성되지 않습니다 대형에서 작은 순서로.
분석 복잡성, 복잡성을 줄이는 방법? 위에서 아래로 검색하여 999부터 시작하여 아래로 내려 가면서 매번 발견 할 때 멈추십시오. 2에서 루트 번호 X로 시작하여 모든 모듈로, 비 0이 아닌 BOOL 판단은 False로 점프합니다. 하지만 면접관이 파이썬을 모르는 것 같습니다. 그래서 다음 질문을 위해 C ++로 전환했습니다.
두 번째 코스 :
부서없이 부서를 구현하는 것은 매우 간단합니다
내 작문에서 C ++의 ABS (음수)가 오버플로 될 수 있지만, 인터뷰 중에 속도 A가 더 중요하지 않다는 점에 유의하십시오.
필기 테스트 중에 나는 이진 최적화를 준비하고 있었고 다음 주제가 나타났습니다.
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48
#include <iostream>
using namespace std;
int jianfa(int num1,int num2)
{
int re = 0;
bool fuhao = false;
if ((num1<0 && num2<0) || (num1>0 && num2>0))
{
fuhao = true;
}
num1 = abs(num1);//小心溢出
num2 = abs(num2);//小心溢出
if(num2==0)
{
cout<<"div zero error"<<endl;
return 0x3f3f3f3f;
}
if(num1<num2)
return 0;
int tmp=1;
while(num1>num2)
{
tmp*=2;
num2*=2;
}
num2/=2;
tmp/=2;
while(num2)
{
if(num1>=num2)
{
num1-=num2;
re =tmp;
}
num2/=2;
tmp/=2;
}
if(fuhao)
return re;
else
return -re;
}
int main() {
int num1,num2;
cin>>num1>>num2;
cout<<jianfa(num1,num2);
return 0;
}
많은 질문을했습니다.
나는 그들 중 일부를 기억할 수없고 내 기억을 잃었습니다. .
1. 인턴쉽 경험이없는 이유는 무엇입니까?
첫 번째 요점은 교사가 내가 직업을 찾을 수 없다는 것입니다. (이것은 진실입니다. 오늘 선생님은 다른 반 친구에게 말했습니다. 직업을 찾았습니까? 직업을 찾았지만 졸업 할 수 없다면 헛된 일이라고 생각하십니까?)
두 번째 요점은 실제 공학에 노출되기 위해 과학적 연구 외에도 대회에 참여했다는 것입니다. Blah Blah Blah. 면접관은 만족할 수 있습니다.
2. LR을 사용한 적이 있습니까?
필요한
3. LGB가 XGB보다 낫습니까?
둘 사이의 차이점을 직접 소개합니다
4. L1과 L2가 다릅니 까? L1이 드물게 될 수있는 이유는 무엇입니까?
수학적 분포 관점에서, 하나는 라플라스 분포이고 다른 하나는 가우스 분포입니다. 엔지니어링은 L1의 대략적인 도출 및 간격 0 내에서 그리고 간격 외부의 최적화에 대해 이야기합니다. L2는 직접 도출하는 것이 비교적 간단합니다.
5. 어떤 학습자가 볼록하고 우수합니까?
lr sigmoid logloss는 볼록합니다. 선형 회귀, 최소 제곱 볼록 최적화. SVM은 볼록하고 우수합니다. NN은 종종 안장 지점으로 수렴하기 때문에 볼록하지 않습니다. PCA는 수많은 수학적 솔루션을 가지고 있지만 고유 값을 사용하면 최적의 솔루션을 얻을 수 있습니다.
(Sigmoid Squared Loss는 볼록 최적화가 아닙니다)
6. 기능 조합 및 삭제와 같은 기능 중요성을 어떻게 측정하고 매개 변수를 어떻게 조정합니까?
답 : 기능 조합을 위해 Onehot Cross-embeding을 사용하십시오. 조합은 실제 분포에 따라 다릅니다. .
기능 삭제 및 기타 측면은 특정 Kaggle 보스의 기능 스크리닝 단계를 상기시켜주었습니다.
매개 변수 조정 :
첫 번째 단계는 조상 매개 변수입니다. 예를 들어, 트리 모델의 깊이, 샘플링 주파수 등. 이는 주로 경험을 기반으로합니다.
두 번째 단계는 기능 샘플링 주파수를 사용하는 것과 같은 매개 변수를 1로 설정해야합니다.
7. 얼마나 많은 활성화 기능을 알고 있습니까?
나는 가장 간단한 Sigmoid Tanh Relu를 언급하지 않을 것이라고 말했다.
8. 안장 포인트는 무엇입니까?
왜 내가 이것을 어리석게 말 했는가, 나는 그것을 잊어 버렸다고 말했지만, 그것은 면접관의 얼굴에 대한 표현에 의해 판단되는 지역 최적의 지점이 아니었지만, 면접관은 만족할 수있었습니다.
(안장 지점의 이미지로 더 잘 이해됩니다. 한 방향은 위쪽으로 위로이므로 슬라이드의 안장 지점으로 쉽게 밀어 넣을 수 있습니다. 다른 방향은 아래쪽으로 하강하여 내림차순으로 내려갈 수 있습니다. 슬라이드, 안장 지점의 그라디언트는 0이므로 여기에 몇 가지 단계를 밟을 수 있습니다. 포인트) 미분 방정식에서, 한 방향으로 안정적이고 다른 방향으로 불안정 한 단일 지점을 기능적 지점에서는 최대 점도 아닙니다.
중요한 지점을 안장 지점이라고합니다. 매트릭스에서 최대 값이 행에 있고 열의 최소 값을 안장 포인트라고합니다. 물리학에서는 더 넓고 최대 값이 한 방향으로 있고 최소값이 다른 방향에있는 지점을 나타냅니다.
광범위하게 말하면, 부드러운 기능 (곡선, 표면 또는 초면)의 안장 지점의 곡선, 표면 또는 초면은 모두이 지점까지 탄젠트의 다른 측면에 위치합니다. )
먼저 RNN을 사용한 적이 있는지 물어 보겠습니다.
답변 : 프로젝트의 RNN 효과, RNN이 프로젝트에서 좋지 않은지, 경쟁에서 RNN의 초기 단계 효과 (초기 단계 효과가 가장 좋습니다).
Gru를 사용한 적이 있습니까? LSTM은 장기 기억을 기억할 수 있습니까?
답 : Gru는 한 번 사용되었습니다. 사용 된 메모리 게이트는 장기 메모리 전송을 보장합니다.
9. 관심이란 무엇입니까?
답변 : 전에는주의를 기울 였지만 이전에만 사용했지만 원칙을 알지 못했다고 언급했습니다.
(Ginseng 조정자로서, 나는 다양한 네트워크를 시도했지만 여전히 관심의 본질을 잘 이해하지 못합니다.주의가 필요한 전부입니까?)
10. 드롭 아웃이 과적으로 과적으로 방지하는 이유는 무엇입니까?
포장의 관점에서, NN은 작은 편차와 큰 차이를 가진 학습자입니다.
11. 협업 필터링 :
그는 그것을 이해했지만 코드를 작성한 적이 없다고 말했다.
(협업 필터링, 학생이 주로 과학 연구에 종사하는 경우에도 여전히 연락하기가 어렵다고 생각합니다. 관심이 있다면 특히 전자 상거래 제품 추천 엔지니어와 관련하여 알 수 있습니다. 여전히 묻기 쉽다)
12. CTR을 추정하는 데 사용되는 것은 무엇입니까?
LR과 FM에 대해 이야기 할 때 FM은 주로 NFM을 알고 있지만 코드를 작성한 적이 없습니다.
13. Mogu Street는 무엇입니까?
답 : 옷 판매. 그래서 그는 Mogujie를 주로 전자 상거래 및 라이브 스트리밍으로 소개했습니다. (나는 라이브 방송을 들었을 때 거의 웃었다. 더 이상 그것을 붙잡을 수 없어서 더 이상 행복하다고 느꼈다. 그러면 더 이상 그것을 붙잡을 수 없다는 것을 알았을 때, 그는 라이브 방송이 현재라고 빨리 말했다. Mogu Street에서 가장 빠르게 성장하는 모듈)
두 번의 인터뷰에서 한 의견은 내 코딩 기술이 매우 좋았 기 때문에 코드 작성을 중단했다는 것이 좋았 기 때문에 잘 진행되지 않았습니다.
내 프로젝트에는 완전한 소프트웨어 구현이 있으며, 주요 부분은 10,000 줄의 코드를 초과하여 인터뷰자가 코드에 감사 할 필요가 없다고 생각합니다.
사실, 나는 대부분의 정상적인 수동 코딩을 할 수 있습니다 (문자열 제외).
프로젝트를 소개하고 프로젝트의 세부 사항에 대해 이야기했습니다.
이 프로젝트에서 코딩 필드의 기능 조합은 모두 XOR이므로 Relu BN을 사용하여 기능을 추출하는 것이 실제로 큰 개선입니다.
BN 원칙, 공식 및 구현에 대해 이야기하십시오
(BN 소스 코드를 확인할 수 있습니다. 오래 걸리지 않습니다)
BN을 사용하여 XOR 이후에 맵의 긍정적 인 부분을 압축하는 이유는 무엇입니까?
BN 층은 또한 데이터 확장으로 계산되고 BN 층은 0과 1만으로 인코딩 스트림을 다루기 때문에 그라디언트가 변경 될 수 있고 최적화가 더 좋습니다 (머신 러닝은 두 점에 대해서만 가능합니다. 두 번째는 두 번째. 지적 최적화 문제입니다)
CNN을 사용하는 이유는 무엇입니까? 그런 다음 면접관은 추천 필드에 또 다른 것을 소개했습니다.
답변 : (실제로, 나는 경쟁에 참여한 친구가 NFM을 연주했기 때문에 임베딩에 대해 알고 있습니다. 첫 번째 층은 삽입 레이어입니다.) 내 대답은 장면에 편향되어 있습니다. 코딩 분야의 특징 : 로컬 상관 관계, 시간- 시간- 불변. 따라서 CNN을 사용하여 전 세계적으로 관련된 임베딩을 수행하는 것은 좋지 않습니다. 권장 기능은 이산화 후 희박하며, 기능 자체는 고차 상호 작용 정보가있을 수 있으므로 잠재적 인 벡터로의 매핑이 더 좋습니다. 이것은 장면에 의해 결정됩니다. 사용 할 학습자와 사용할 네트워크를 결정하는 데이터의 특성입니다. (또한 RESNET이 이미지에 더 나은 이유를 소개했지만 코딩에서 2 층 극단 매개 변수 조정 네트워크의 성능은 잔류 네트워크의 성능을 초과했습니다. 실제로는 모두 장면에 의해 결정됩니다).
면접관은 큰 샷입니다!
자신을 소개합니다. Mogu Street에 올라가요? 이전 대화는 주로 게임을 처음부터 끝까지, 게임의 배경, 중간의 정신 여행 및 최종 처리를 소개했기 때문에 매우 매끄 럽습니다. 첫 번째와 두 번째 시험은 순조롭게 진행되었으며, 첫 두 시험은 엄청나게 순조롭게 진행되었습니다. 그렇지 않으면, 나의 Mogujie Street는 안정적 일 것입니다
괄호 흐름이 주어지면 문자열 s = '(()) (() () () ()'에서 합법적 인 일치 연속 쌍 1을 찾으십시오. 출력은 3입니다. 아래에서 DP는 처음에 추가로 0을 가지고있는 것 같습니다. 그래서 나는 줄을 잘 못했다고 말했다. 동적 프로그래밍이 가능하지만, 나는 오전 10시 30 분에 청두 대학의 옥상에서 그것을했지만 화면은 어둡습니다 바닥에서. 그 영역은 무엇입니까? = '()'입력이 입력되었다고 생각했지만 S의 실제 읽기는 비어 있어야합니다. 나니는 괜찮아요 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31
#s = input()
s = '(())(()()()'
#s = '(())(()'
re = []
dp = [0]
for i in s:
if not re:
re.append(i)
dp.append(0)
else:
if i=='(':
re.append(i)
dp.append(0)
else:
if re[-1]=='(':
re.pop()
dp.append(dp.pop()+1)
else:
re.append(')')
dp.append(0)
print(re)
print(dp)
m = 0
cur = 0
for i in dp:
if i!=0:
cur+=i
m = max(cur,m)
else:
cur = 0
print(m)
输出:
['(']
[0, 0, 2, 0, 1, 1, 1]
3
마지막에 질문을 할 때, 면접관은 리콜 분류와 관련하여 아주 좋은 말을했을 때 업계에서 몇 가지 관행을 추가했습니다. 일반적으로 말하면, 우리는 부분 순서로만 정렬하면되지만, 일부 경우에도 입찰 광고의 경우 돈을 쉽게 나눌 수 있도록 정확한 추정을해야합니다. 예를 들어, 클릭 스루 비율, CTR 또는 기타 조합은이 순위에 따라 계산되어야합니다. 또한 권장 검색에서 보스는 몇 가지 관련 사항을 소개했습니다. 즉, 리콜 된 것들이 너무 반복적이거나 필터링해야 할 수도 있습니다 (예 : 어린이에게는 적합하지 않으며 모든 사람이 미쳤습니다. 좋지 않습니다). 필터링은 어떻게 수행됩니까? 그리고 특정 사람에게 추천하는 경우, 한 가지 방법은 특정 사람에게 밀면 모든 광고 나 다른 권장 사항에 해당 하므로이 사람과 상호 작용할 수 있기 때문에 기능을 만들지 않고 군중을 보내는 것입니다. 회상하고 정렬하십시오. 마지막으로, 나는 회사의 평균 연령에 대해 물었다. 왜냐하면 나는 이것에 대해 개인적으로 관심을 갖고 있기 때문이다. 면접관은 당신이 2 년 동안 여기에 있었고 자신의 기여를했다면, 그는 다른 회사에 4 년 이상 갔다. 5 년. 강하고 잘 생기고 강한), 그는 2 년 동안 일한 후에도 금연을 더지지했습니다. 또한 Mogujie는 독특한 이점을 가진 중간 크기의 플랫폼이라고 말했다 데이터 흐름은 Baidu와 달리 많은 모델을 사용할 수 있습니다 (전체 프로세스에서 Baidu는 언급하지 않았습니다 ...) 빅 데이터 플로우 회사의 일부 오픈 소스 패키지는 작동하지 않을 수 있습니다. 회사. 당신은 Mogujie에 올 때 자신을 더 잘 표현할 수 있습니다. 나는 HR로부터 통지를 받았으며 면접관이 학교에 오거나 회사에 직접 가서 후자를 선택하고 Mogu Street의 관습을 경험할 준비를했습니다.
1. 자신을 소개하십시오
저는 주로 알고리즘 엔지니어이며 실제 과학 연구 프로젝트는 매우 전문적입니다 (프로그래밍 알고리즘에 관심이 없습니다).
나는 내가 쓴 과학적 연구 소프트웨어에 대해 이야기했다.
내가 소개했을 때, 나는 게임을 좋아한다고 언급했다 (나는 해적 된 버전을 연주했지만 이제는 Steam 레벨 50 이상으로 진짜 버전을 플레이하고 게임은 거의 100입니다).
(나는 혼자서 백엔드 개발을 배웠고, 상호 엔터테인먼트를 위해 파이썬이 필요하지 않습니다)
2. 보통 어떤 게임을 좋아합니까?
나는 최근 과학 연구를 해왔으며 게임을하지 않았습니다. 나는 젤다, 다크 소울, 몬스터 사냥꾼 등을 좋아했었다.
3. Netease 게임을 한 적이 있습니까?
Onmyoji와 Hearthstone
4. 하스 스톤에 대해 이야기합시다.
나는 주로 오프닝 팩 (면접관이 웃었다)을 좋아했기 때문에 하스 스톤을 좋아했고, 내가 좋아한다면 게임을 기꺼이 지원하기 때문에 하스 스톤에 많은 돈을 썼다. Hearthstone의 장점은 경쟁력이 있고 카드 게임이기도하므로 흥미롭고 각 게임은 무작위이므로 각 문장의 경험이 다릅니다. 또 다른 요점은 골드 코인을 더 많은 금화로 열면 팩을 열면 카드 풀이 업데이트되어 새로운 구조와 새로운 경험이 생길 수 있습니다. 이런 식으로, 당신은 매번 새로운 경험을하고 사용자를 유지합니다.
5. 세 가지 질문은 비교적 간단하게 테스트 케이스를 작성해야합니다.
손 찢어짐이 성공적이며 코드 작성은 비교적 빠릅니다.
첫 번째 질문에 대한 두 가지 요점
Python으로 작성된 편집은 Niuke.com을보고하지 않았으므로 C에서 빠르게 다시 작성했습니다.
이등분의 4 가지 경계 조건이 논의된다
두 가지 유형의 반환 st와 en은 반환 된 검색 경계, 데이터 [mid] <value 및 <= value에 해당하고 두 유형은 상부 및 하한에 해당합니다.
共四种,然后说四种情况对应,每种的取值范围返回st,返回的取值范围是0到数组长度,返回en,则是-1到数组长度-1 st和en含义不一样,这个最好自己写写理解一下(更新了一下lower_bound的理解,解释了为什么返回值范围是0到len(data) PS:标准库返回的是迭代器位置,是一个指针,我这里从元素的位置概述。 lower_bound 返回数组大于等于value的第一个位置,假如数组中所有元素均小于value,返回尾部迭代器len(data),第一个元素大于等于value,返回0 (第一个元素大于等于value,则所有元素大于等于value,则返回0) 从定义看,这样定义就不可能返回负1。 找身边的跳动大佬讨论了一下,应该没写错了,有误请指正呀。 upper_bound返回大于value的第一个位置。同理,理论上返回值就不包含-1。 标准库的写法里,返回的是st。 加入返回的是en呢,那么返回的含义是什么呢?即返回的st情况-1 lower_bound :返回大于等于value的第一个位置lower_bound_en:返回小于value的第一个位置
upper_bound:返回大于value的第一个位置upper_bound_en:返回小于等于value的第一个位置1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 def lower_bound(data,value): st = 0 en = len(data)-1 mid = st+((en-st)>>1) while(st<=en): if data[mid]<value: st = mid 1 else: en = mid -1 mid = st+((en-st)>>1) return st def lower_bound_en(data,value): st = 0 en = len(data)-1 mid = st+((en-st)>>1) while(st<=en): if data[mid]<value: st = mid 1 else: en = mid -1 mid = st+((en-st)>>1) return en def upper_bound(data,value): st = 0 en = len(data)-1 mid = st+((en-st)>>1) while(st<=en): if data[mid]<=value: st = mid 1 else: en = mid -1 mid = st+((en-st)>>1) return st def upper_bound_en(data,value): st = 0 en = len(data)-1 mid = st+((en-st)>>1) while(st<=en): if data[mid]<=value: st = mid 1 else: en = mid -1 mid = st+((en-st)>>1) return en
对比的数改成1。
) 然后说了C++算法标准库(lower_bound和upper_bound)用的哪两种形式:返回st的那两种注意C++标准库返回的是指针第二题是二叉树的深度
python手撕,又报错,然后无IDE查bug还好查到了,print大发好,对python,如果print(“XXX”)没输出东西就说明没运行这一行。
定义树class的时候写的是.next,晕了,应该是.left和.right
第三题是数组旋转
左旋转,自信一波分析写完是右旋转,一脸懵逼,怎么看都是左旋转跑完就是右旋转
然后再那试了试改i,j,然后第二次就输出对了,晕,运气比较好
由于循环用的常数限制,要求改成了数组的范围,注意python len(data)是行len(data[0])是列
正常构造一个和data一样大new数组是先列后行[[0 for _ in range(len(data[0])] for _ in range(len(data)]
然后循环是先行后列(这样局部性更好,运行速度快,更容易缓存命中,当然面试官也没问我也没提)
写法应该是对的,但我不敢改成行列不相等的情况,万一错了呢.PS:想了想应该不对,因为new数组我照着data开辟的,应该行列反过来开辟才对,先行后列构造的话正好对应旋转后的情况,幸好没深究,不过这种bug很容易改,print()大法print一下就出来了
问问题:好希望他问我机器学习的东东,这样我就能装逼了,然而
6、静态内存和动态内存?
讲了static和堆栈是静态,编译的时候决定了大小,动态内存可以自由开辟->堆,也不知道对不对。 .
(回来问了问另一个收割大佬,应该是这样)
7、堆是?
说了向上开辟,速度慢、运行时改,然后开辟的过程,链表存着下一个位置和这一块有没有使用,如果没找到就析构合并内存再找,再找不到返回null(可以参考前面的答案)
8、堆栈是?
说了向下开辟、速度快、编译时分配、主要是存PC指针,然后函数入口参数多组成栈帧存进去等着恢复
9、malloc和new区别free和delete?
1、一个是函数(面试官没问,但我自觉呀,诚实回答忘了是哪个头文件里的了,事后查了查是stdlib我擦我天天写没想到是这个)一个是关键字
2、malloc要算大小,返回void*(然后随口提到void*可以转XX *),强转后按转完后的类型用,要自己算大小;new的时候传类型,就比如100个int,然后直接开100个就好了,他自动将int长度算进去
3、malloc再堆上,new在自由存储区(然后回答忘了自由存储区再哪了) 讲着讲着忘了free和delete的事了
(自由存储区和堆似乎是概念上的区别?我丢,深入理解计算机基础是按C讲的,我哪知道C++的自由存储区和C的堆有啥区别呀,按理来说假如new是依赖malloc实现的,那么他们不该开辟于同一块区域么。C++默认在堆上开辟new需要的空间,所以new来自自由存储区和堆都行。
网搜的答案:
自由存储区是C++中通过new与delete动态分配和释放对象的抽象概念,而堆(heap)是C语言和操作系统的术语,是操作系统维护的一块动态分配内存。
new所申请的内存区域在C++中称为自由存储区。藉由堆实现的自由存储,可以说new所申请的内存区域在堆上。
堆与自由存储区还是有区别的,它们并非等价。
)
10、智能指针了解不?
我从python的内存管理角度讲了计数法析构内存,和智能指针原理一致。但我自觉诚实的说出我没用过智能指针
11、python怎么解决循环引用的?
是不是想问我智能指针的循环引用解法?我忘了呀,我就直说python本身解不了循环引用的问题(这实话实说,确实解不了,python又不是神,循环引用要靠自己析构,对python来说,循环引用的东西就算程序关了都还在),但python有个库函数可以发现循环引用位置,然后调用垃圾收集器析构掉就好(其实就是定位内存泄露,然后gc把它干掉)
12、计网了解不?计算机网络TCP和UDP的区别?
答自学。回答了很多,挺详细了
(UDP主要用于那些对高速传输和实时性有较高要求的通信或广播通信,
TCP用于在传输层有必要实现可靠性传输的情况
1、TCP面向连接(如打电话要先拨号建立连接);UDP是无连接的,即发送数据之前不需要建立连接
2、TCP提供可靠的服务。也就是说,通过TCP连接传送的数据,无差错,不丢失,不重复,且按序到达;UDP尽最大努力交付,即不保证可靠交付
3、TCP面向字节流,实际上是TCP把数据看成一连串无结构的字节流;UDP是面向报文的;UDP没有拥塞控制,因此网络出现拥塞不会使源主机的发送速率降低(对实时应用很有用,如IP电话,实时视频会议等)
4、每一条TCP连接只能是点到点的;UDP支持一对一,一对多,多对一和多对多的交互通信
5、TCP首部开销20字节;UDP的首部开销小,只有8个字节
这里建议不是特别熟的回答首部设置不一样,别说的太详细。
6、TCP的逻辑通信信道是全双工的可靠信道,UDP则是不可靠信道
)
13、长传输和短传输?
전혀 모른다
(是http的长连接和短连接吗?HTTP1.1规定了默认保持长连接(HTTP),数据传输完成了保持TCP连接不断开(不发RST包、不四次握手),等待在同域名下继续用这个通道传输数据;相反的就是短连接。)
14、操作系统呢?
回答自己看的深入理解计算机系统,看的很详细,收获了特别多
15、进程和线程?
程序不过一段文本,运行起来才是进程,一顿讲,资源/调度单位啊、共享内存啊、并发啊XXXXXX
(见之前的答案)
16、你还有什么问我?
问了两个问题
一问:您能不能了解到其他面试人的信息,然后对着我教研室座位后面的字节大佬猛夸(因为他特别想去互娛做游戏),一开始面试官还以为这个人挂了呢我想捞一手,一听和我同时面了互娱就轻松了说既然这么强一定能过面试,然后我就突然想到好像可以暗示一波,就说我和他报的都是广州,我很想和他当同事(强烈暗示)
二问:我说我是算法工程师,机器学习特别厉害,平时工作内容是啥啊,机器学习这部分我都用上么
求互娱给个开奖机会,教练我想做游戏~(如果百度把我忘了的话),你敢让我过我就敢去宁可别被我逮住了
负责360搜索的部门,面试体验很好。
忘了面试的一部分,因为连续4面,其中技术面360两个,网易互联网1个,hr面1面,非常之累。
1、介绍自己
2、介绍自己实现的科研软件
用什么语言:C++
什么写的界面:QT
3、LGB和XGB区别
一开始听错了以为是LSTM,我还在想LSTM和XGB的区别,这怎么说,先介绍介绍XGB吧,然后说完XGB反应过来,面试官不是让我说LGB吧。 .那就好说了,一顿讲。
(答案前面有)
4、介绍CNN、卷积层如何实现非线性
使用激活层,不然在卷积都是线性变换。我从猫的视觉锥细胞开始一顿讲,应该讲的挺详细了,CNN的时不变性真的很适合用于信号处理。讲了时不变和局部权值共享,说CNN是DNN的特例。
(
卷积:对图像(不同的数据窗口数据)和滤波矩阵(一组固定的权重)做内积操作。
卷积的重要的物理意义是:一个函数(如:单位响应)在另一个函数(如:输入信号)上的加权叠加。
卷积神经网络CNN是多层感知机(MLP)的变种。20世纪60年代,Hubel等在研究猫脑皮层时发现其独特的网络结构可以有效地降低反馈神经网络的复杂性,继而提出了CNN。
CNN:局部连接和共享权值的方式,减少了的权值的数量使得网络易于优化,另一方面降低了过拟合的风险。该优点在网络的输入是多维图像时表现的更为明显,使图像可以直接作为网络的输入,避免了传统识别算法中复杂的特征提取和数据重建过程。在二维图像处理上有众多优势。
CNN具有一些传统技术所没有的优点:良好的容错能力、并行处理能力和自学习能力,可处理环境信息复杂,背景知识不清楚,推理规则不明确情况下的问题,允许样品有较大的缺损、畸变,运行速度快,自适应性能好,具有较高的分辨率。它是通过结构重组和减少权值将特征抽取功能融合进多层感知器,省略识别前复杂的图像特征抽取过程。
CNN的泛化能力要显著优于其它方法,卷积神经网络已被应用于模式分类,物体检测和物体识别等方面。利用卷积神经网络建立模式分类器,将卷积神经网络作为通用的模式分类器,直接用于灰度图像。
)
5、卷积层pooling层怎么放?激活层放哪里比较好,有什么区别?
没听明白,不该是中间夹一个激活层吗。面试官的pooling真的是一言难以呀?我一直以为是最后的全连接FC层,我心想这不是被全局池化代替了么?不会所以一顿乱说?因为我自己也是改网络的时候,经常会尝试层的位置交换,我都是哪个效果好用哪个。讲的时候想起了何凯明大神的论文里的预激活,然后对着预激活、卷积层在Resnet的作用一顿夸。有会的大佬么。请私聊教教我。 . .
두 가지 질문
1、10进制转K进制进制转换
给定一个十进制数M,以及需要转换的进制数N。将十进制数M转化为N进制数输入描述输入为一行,M(32位整数)、N(2 ≤ N ≤ 16),以空格隔开。 输出描述为每个测试实例输出转换后的数,每个输出占一行。如果N大于9,则对应的数字规则参考16进制(比如,10用A表示,等等) 这题很简单,发个自己的写法,过一遍就好,挺简单的。可能个别边界会有问题,但是面试的时候尽量追求速度。 牛客网面试的时候,注意运行全部用例,可以看AC的情况,为什么这么说呢,因为你的输入面试官看不见(他说的),所以他只能给你跑一下看过了多少例子。 像这种水题一定要写得快。
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53
//map<int,char>table;
//table[0]='0';
//table[10]='A';
#include<stdio.h>
#include<iostream>
#include<string>
#include<vector>
using namespace std;
void reverse(vector<int>&a)
{
int l = a.size();
for(int i=0;i<l/2; i)
{
int tmp = a[i];
a[i] = a[l-i-1];
a[l-i-1] = tmp;
}
}
string get(int M,int K)
{
bool ju = false;
if(M<0)
{
ju = true;
}
//注意负数转正数溢出
M=abs(M);
vector<int>data;
while(M)
{
data.push_back(M%K);
M/=K;
}
reverse(data);
string res = "";
if(ju)
res ='-';
for(int i=0;i<data.size();i )
{
if(data[i]<=9)
res ='0' data[i];
else
res ='A'-10 data[i];
}
return res;
}
int main()
{
int M=7,K=2;
cin>>M>>K;
string s = get(M,K);
cout<<s<<endl;
}
2、A->B,B->C,A->C,C->A中有一对链子A->C,C->A问序列里有多少对链子使用哪种数据结构?
要求:序列很长,只看直接相连,A->B->C->A 不算ABC互联。
讲了比较简单的d[i][j]=(bool)的结构,O(N^2)的时间和空间复杂度
又讲了两次扫描,O(N^2)的时间复杂度,O(1)空间复杂度
最后说了数组+链表,极端情况下时间复杂度也较高,但我心里想的是对链表排序也不慢吧,二分查找,时间空间都OK呀,但我傻就傻在我心里想了,嘴上没说链表排序。
最后有会的大佬么请教教我。 .
体验好,一道题,抽的前两道题都做过,一个是奇偶排序,一个是前序中序重建树
都是剑指OFFer原题,面试官见我思路顺畅,问我是不是做过,做过默写就没意思了。
我说做过剑指OFFer原题。 前两道题没手写。
第一道奇偶排序要求稳定排序,思路1就是归并排序,前偶后奇为大于。思路2双指针二分偶数倒
第二道找根节点,二分,没了
第三道没做过,但是也简单,问面试官能不能用python,能的话两分钟结束这道题,说不行就老实写了
这一面主要是深挖项目,深挖!
反问环节,面试官疯狂指导我,真好,这里总结了记住的一部分:
聊了搜索推荐的一些问题,我问的第一个是360对编程能力的要求。面试官的回答是所有的算法工程师都要具备很强的编程能力。
第二个是推荐中排行榜的问题,我说上了排行榜,阅读量就是疯狂增加,一增加就会更留在排行榜上,这种情况怎么办。面试官回答这是正反馈问题,说了很多干货,有兴趣做推荐的可以看看相关内容。
我又问了冷启动的问题,我就说对于新出现的页面,第一次出现,没有任何曝光下,如何给他做推荐呢?这里面试官反问了我,我就回答了自己的思考,先小批次试点曝光,再推广。
面试官开始讲推荐和搜索排序的区别,搜索排序面临的问题更复杂。所谓排序就是获取大数据的网页界面,然后对用户的查询给出一个最可能的结果(LGB可用),用到一些分层、召回(最优可能查询结果捞出来)、排序(对捞出来的东西排序),这里排序要做到去相关性,查询要保证输出结果多样性、表达多样性,还牵扯到了词与词之间的紧密度、运营和相似度命中。
In addition, there are many difficulties in sorting. First, the amount of data is larger and a lot of information is captured. However, the more indexes, the better, because there are duplicate (plagiarized web pages) and low-quality web pages .另外对于learning to rank,我们不需要像回归那样得到准确的回归值,只要得到他的偏序就好。比如A<B,我们算价值是A:80,B:79和A:80 B:77,偏序都一样,只要排序正确即可。而要检验我们排序的好不好,就是根据反馈,检验模型的优劣,比如我们把A在B前面,但是用户不点A点B,用户改Quary词或者翻页,都可以用于检验模型效果。这三时候可能会用概率图解决这些问题。排序技术难度大,底层需要的技术也比较高级。 In addition, there may be a certain gap between the user's inquiry and our results. For example, when a user searches for the price of a certain car, the search result we give is the transaction price of a certain car. This creates a gap .
最后我问了这么一个问题,就是我在做学习强国的时候,查询一个答案, 结果第一个是付费的,第二是是免费的,有限的时间里查到的第一个结果让我付费观看,我就很生气。 이것에 대해 어떻게 생각하세요?面试官的回答也是很棒呀,所谓的搜索排序最终就是给用户满意的结果,结果可能是多样的,有的排版好内容丰富,有的排版差内容差,我们做的就是把最好的结果展示给用户。对于搜索排序,可能产业化的结果分两个,第一种是满足需求的免费内容,特别用户预期的结果。第二种可能是竞价排序的结果,可能付费观看,大部分用户没有付费的欲望觉得不好,少部分付费用户可能也会特别喜欢,但无论如何,前者肯定也会在搜索结果前列。
啊,面到最后没时间了,面试官让我问问题,我就随便问了两个,然后不得不回360电话了,就说我有点事把视频关了,本来面得挺好的,哭
其他的忘了,就记得两道题
第一道n的二进制表示中有1的个数
1 2 3 4 5 6 int re = 0; while(n) { re; n = n&(n-1); } 然后分析复杂度,最后提示下分析出来了log(1+n)
然后分析平均复杂度,我以为从1 到int_max的所有复杂度求平均。所以怎么都分析不对。
最后才知道是每个的复杂度,晕,面试官告诉我是log前面的系数是0.5。
第二道:
1、建个链表
2、打印链表
3、反转链表
The reversal chain table is not written well. The left and right borders are judged once each. It is only good to judge once under normal circumstances, but the interviewer said that it is OK. It has little effect on making more time. The result 맞습니다.
4、排序链表
做的是真难受,臭牛客,哼哼。写错个变量都指不出来,改bug改到头秃。
排序链表写的是链表快排,最后发现复杂度不是nlog(n),因为我L部分的尾部没有指向mid(base),导致我最后写了个找L部分的尾部,把这一步优化了就没问题了,但是面试官说也行吧排序的结果不会错。
最后问问题的时候,我一边问一边调试,最后终于把链表快排调对了。然后和面试官说我调出来了,就匆匆结束了这次面试,很难过。因为马上360就是二面,我总不能为一面放弃二面把,这里我情商不够处理的不好,哎,难受。面试官人都挺好的,都是我的问题。
面试经验肯定是面的越多越丰富的,从最初乐鑫的笔试挂,到字节跳动笔试不会写输入流(第一道题我本地1分钟就A了,然后不会写输入流,试了15分钟,然后写了第4题,结果本地能过线上报编译错误,我就很生气了,何况这个输入流更复杂我就直接放弃了)笔试直接挂,到现在面试一点也不紧张,可以和面试官愉快吹牛逼了,所以说多点经历也是挺好的(补充,这次字节笔试3.6/4,还可以)
##部分已挂的公司,吐槽一下: OPPO 简历挂?显示简历过,没有通知面试,可能原因是没填内推码,身边的字节大佬也和我一样简历挂。 . .问了去面试的算法同学面试题目婴儿难度。 还有提前批没过,但是简历状态还有,是已处理,不能再次投递。 . . VIVO 笔试挂。 .我真没想到笔试还能挂,不过VIVO SP给的还不错,问的问题也不能说难?没中奖呀难受很气,想想要不要投步步高?三顾茅庐了要阿里内推挂(本来在池子里,然后部门的那个人发邮件给你内推,内推完刷新界面挂,可能原因是我扫了内推连接,但是我一般是不选择内推,想一想阿里内推人也不容易,互相体谅吧) 还有一个不知道哪里的公司挂了我简历,原因是简历是牛客上创建的,都不知道什么时候创建的,简历上面很干净。 .
18-28 作者:工大菜鸡链接:(https://www.nowcoder.com/discuss/295287)
18. 顺丰sp和ihandy牛客专场:
开篇就是吐槽,我为什么写这个?不是因为顺丰面试有多难,而是顺丰答应给我的二面,到现在都没给。 . .从8月1号顺丰给了我人生中第一次公司面试到9月28号我结束秋招,在这期间顺丰不断推迟二面时间,现在又给我推到了10月中旬,不得不说,顺丰的hr还真是佛系呢。 ihandy这货更狠,给我答应的一面到现在都没兑现,每次打电话过去问hr,都是同一个回答:马上帮您安排,然后我就继续傻傻的等一两个星期,循环往复。
1.自我介绍,为什么转行,你原来实验室干的什么?:因为喜欢算(qian)法(duo),原来实验室干的导航制导与控制;
2.介绍比赛,做了哪些数据的清洗,数据增强的处理?作了哪些特征?怎样提取特征的,为什么会想到这个特征呢?:balabala如实说,还说目前进入了复赛,正在复赛准备阶段XXXXX啥的;
3.我看你比赛用到了xgboost和lightGBM,那说下XGboost原理吧:额……不会;
4.那说下LightGBM吧:咳咳,也不会;
4.额那说下GBDT总行了吧:额……还是不会;
5.那你会啥?我:LR。(面试官快哭了TT);
6.那好吧那你说说LR吧:balabala;
7.你听过CATboost吗? 나: 아니요. (面试官再一次哭了);
8.说说LSTM的原理:balabala还口述了输入门,更新门,输出门的公式;
9.你有什么想了解顺丰的吗?我:X$Y*&^%(&%@1!2¥……;
我知道我答的很菜,但我还是厚着脸皮问了面试官我的表现咋样,能否就我的面试情况和简历提点建议?后面每一次我视频面试我都会向面试官问这个问题,他们也都会热心的给我提出建议,帮我修改简历,收获很多。
结果:没想到一面给我过了,但是二面迟迟不到。
19. 滴滴牛客sp专场(二面挂):
惭愧,当时在面试的时候还以为滴滴是小公司,问面试官问题的时候,我居然问了滴滴的业务存活情况……
1.自我介绍,转行之类的问题;
2.了解那种算法挑一种介绍下:我说了LR,刚说到交叉熵这儿,面试官打断:那你说说LR为什么用交叉熵作为loss函数。我:因为lr从概率密度函数推导出来的对数极大似然函数就是交叉熵函数。面试官说:不全对,其实mse是万能的loss函数,每个模型都可以用mse作为loss函数的,那为什么lr不用mse呢?我:不几道。面试完了才想明白,mse的导数里面有sigmoid函数的导数,而交叉熵导数里面没有sigmoid函数的导数,sigmoid的导数的最大值为0.25,更新数据时太慢了;
3.说说XGB:在上次顺丰面完后,我仔细学习了一遍xgb,这一次大致回答上了面试官的问题,我说了GBDT,再从XGB是如何改进GBDT的角度引入了XGB的一些概念,比如预排序什么的,引入正则项和二阶泰勒展开什么的;
4.介绍比赛,介绍如何分工的,如何构建特征的,如何选择这些特征的;
5.说下常见的处理过拟合手段有哪些?我说了l1,l2,神经网络里的dropout,增加数据量等等,面试官问还有吗?我:不知道了。其实后来才知道bagging和boosting也是降低过拟合的手段,以前还以为仅仅是种特殊的模型。
同样向面试官问了我的表现情况以及如何改进,面试官也热心的提出了建议。
1.自我介绍,大致介绍项目。
2.聊比赛,聊人生。 . . . .大概聊了30多分钟。
3.问你会不会什么操作系统,数据库啥的,c++会不会。答:都不会
二面很自然的就挂了,从滴滴的面试可以看出,其实国内的很多公司都挺看中开发能力的,只会python和跑跑模型应该达不到绝大多数公司的要求。
20.快手牛客sp专场(二面挂)
1.基础问题都是老生常谈,问题和回答略了
2.算法题:求最长回文子串,leetcode原题,动态规划求解最好,但我当时不会,用的是中心展开法,勉强做了出来。
1.上来一道leetcode上的hard算法题:求最小编辑距离。不会,直接gg
2.其他闲聊,聊人生
大概等了10多天,官网上给我挂了
21.依图(一面挂)
是我最惨的一次面试,面试官笑眯眯的,也没让我自我介绍,上来四到算法题,一道一道来的那种,题目都忘了,只记得每道都把我摁在地上摩擦,差不多情况就是这样:
面试官:出道算法题吧,第一道:XXXX。
我思索10分钟:不会;
面试官:那我们做第二道吧:XXXX。
我又思索10分钟:不会……;
面试官:那再来一道:XXXX。
我寻思我都这么惨了放过我让我走吧求你了,于是思索了两分钟说:还是不会……;
面试官:那再来一道:XXXX。
我:gun!
后来视频面试结束的时候,我专门去查了这几道题目,他们都有一个统一的解法,那就是动态规划,抱歉我之前真没听过动态规划啊啊啊啊啊,我从此下定决心,进行dp的专项练习。
22.腾讯(一面挂,好后悔没有抓住唯一一次进鹅厂的机会)
其实面试官问的问题都很简单,但是当时比赛刚做完,非常疲惫,不想学习,没有学习新的东西,也没复习旧的东西,就这样躺尸了两天,然后腾讯的技术面试官晚上打来电话面试:
1.自我介绍,介绍比赛
2.看你用到了朴素贝叶斯,说下原理吧。我心想这还不简单,刚要张嘴,才发现坏了,啥叫朴素贝叶斯来着? 잊어버렸어요!我就支支吾吾的说:用了贝叶斯公式,然后加上了观测独立假设,面试官无语……
3.说下xgb,lgb和gbdt吧。这个我会,由于前面问了很多了,不用复习也能张口就来。
4.我看你的另一个比赛用了bert和CRF,说说CRF的原理吧。我:……不会(后悔没看)
5.那说下bert的原理吧。我:……还是不会(好后悔啊,太懒了,还是没看)
后面balabala的问了一堆,我都回答上了,但是前面这几个没回答上的太伤了,一面挂
23.远景(四面挂,boss面挂的,真是挂的莫名其妙……)
都是随便介绍项目,问一些基础的问题,没啥难的,印象深刻的是二面面试官问到最后突然让我用英文介绍下比赛里面是如何选择特征的,我用我的工地散装英语一顿乱说,结束时面试官说嗯很不错,我内心:靠,你压根就没听吧!
四面是boss面,现场面的,聊人生,跟我聊了一个半小时,全程也穿插问些问题,我都回答上了,跟boss聊得非常好,然后就给我莫名其妙的挂了……,我想原因应该是boss临走前给我说了一句:你需要多注重工程能力。他可能嫌我工程项目很少吧。
24.百度(一面挂)
百度的笔试就令人印象深刻:
选择题啥都考,很杂,操作系统,数据库,c++,python,机器学习,深度学习啥都考
两道问答题,其中有一问印象深刻:说说针对中文,BERT有什么可以改进的地方。我心想:你丫不就是想吹自己的ERNIE嘛,我就写了ERNIE针对BERT做出的改进,基于知识的mask训练方式,基于知识图谱的改进等等
一道设计题,让你设计一个系统:可以写出春联,必须满足他的要求,平仄音节都要对上,我直接BERT+CRF+GPT一顿乱写。
编程题:RGB括号,我猜应该是道dp题吧,链接:https://www.nowcoder.com/discuss/254095
想看的童鞋可以看一看,无视我的答案就好,我到现在都不知道我的答案对不对。
1.红黑树的几个特点。只答上两个,其实我根本不会
2.python的装饰器@的用法。 습관
3.编程,写一个函数,实现python的继承,数据的交换,类中的全局变量等等。写上了一半。
4.快排(不能用简单粗暴的那种,要空间复杂度最低的)和堆排序(必须用最小堆实现)。不是让你写代码,而是给你一个数组,直接让你用快排和堆排的思想直接一个元素一个元素的演示给他看,这个我答上了,幸好之前自己实现过弄懂了。
5.算法题dp两道:最长公共子串,最长公共子列,都是dp题,幸好专门看了九章算法,专项学习了dp,简单或者中等的dp题还是可以一战的,这两道也是lintcode上的原题,有兴趣的童鞋可以查查。
6.介绍xgb,我说到“xgb的预排序是相对于暴力求解的加速”这儿,面试官打断了我,反问我:那具体是为什么加速了呢?一个特征下的数据,没有预排序和预排序了,不都得遍历一遍才能求解出最优分裂点吗?
这个问题给我干蒙了,其实这个问题我之前思考过,但是太懒了,心里不断麻醉自己面试官不会问得这么细,就直接忽略了,没再去想。百度面试完以后我看了原论文的伪代码才明白为什么。所以再次建议尽量能读一读原paper。
7.介绍下xgb是如何调参的,哪一个先调,哪一个后调,为什么?哪几个单独调,哪几个放在一组调,为什么?哪些是处理过拟合的,哪些是增加模型复杂程度的,为什么?我寻思你十万个为什么呢?总之就是被为什么问的头昏脑涨,出了门我就知道肯定挂了。
25.搜狗(面试流程结束)
1.lr为什么用sigmoid函数作为概率函数。我:lr是基于伯努利分布为假设的,伯努利分布的指数形式就是sigmoid函数,而且sigmoid函数可以将数据压缩到0-1内,以便表示概率。
2.介绍下word2vec,说说word2vec和fasttext的区别。我:balabalabala,说的貌似还行,面试官点头
3.印象深刻的推导:
推导下word2vec里面的一个模型CBOW吧。后悔没看,哭了,我说不会。
那推导下SVM吧。这个我会,推出来了,但是到对偶条件这里,面试官问为什么能用对偶条件,我没答上来,还是太菜。
那再推下lr吧。这次顺利的推了出来,面试官问的问题也回答了上来。顺利通过了。
4.算法题:求最长回文子串,没错,和前面快手一面问的笔试题一样,答上了。
5.概率题,严格来说,这道题不是我遇见的,是我同学面搜狗的时候被问到的,我觉得很有意思,而且我们都不知道答案,请大佬解答:
一共54张扑克牌,我抽了几张牌(大于2张),有两种场景: 1.我说我有小王; 2.我说我有大王; 这两种情况,哪种有双王的概率更高?
这题我是一脸懵逼的,求各位大佬解答!
2.搜狗二面:
1.xgb的loss函数的推导(mse以及非mse形式),以及求解推导。
推出来了;
2.求最大连续子列和,要求时间空间复杂度最小。
很简单;
3.xgb是如何实现并行的。
保存预排序的block,用进程间的通信并行寻找最优分裂点。
4.lgb的直方图优化算法说说。
随便说了说,面试官也没深问。
5.讲比赛,讲项目。
balabalabal总之二面持续了差不多一小时
没啥好讲的,聊人生,聊转行,hr说需要综合各地的信息来筛选,让我回去等消息。
26.OPPO(offer)
我整个秋招所经历的所有面试官里面,一共面了三个非常有水平的面试官(我个人觉得):一个是远景的那个boss,微软亚研院呆了四年,百度呆了六年,google呆了六年。和我聊现在的行业形势以及各种模型的应用,很多问题都会直击要害,一语中的。和我的聊天中看出了我工程能力不足,跟我聊了一个半小时,为我未来提出了一些建议和规划,我很感谢那位大叔;第二个是百度的一面面试官,他好像就是住在我肚子里的蛔虫一样,总能在我的回答中揪出我不会的致命知识点,给我痛击,真的是怕啥他考啥,他的基础非常扎实,而且反应和判断非常迅速;第三个就是这个oppo的一面面试官,根本不问固定知识点,就问一些模型、手段、措施背后的本质并且举例说明,在你运用的实际场景中有没有见过。
刚开始都没让我自我介绍,直接让我说比赛。我:balabala,我介绍到CRF的时候,面试官打断我说:“你说CRF说了一大堆,那他它本质是个啥东西,我不要听那些定义,你给我说本质”。我:……支支吾吾……,说它应该是个函数,balabalaba一顿编。
然后他也没说对错,继续问:说下attention吧,我:又是一顿balabala,讲到注意力那儿的时候他问:你能举个case吗,用了attention和没用attention时候的对应的隐状态在哪些地方有区别你有去观察过吗?我:又是一顿瞎bala,他又没说对还是错。
又问我看你这里用到bilstm它和lstm的区别在哪?举例说明,用了和没用的效果。我心想:哎呦终于有个会的了,结果回答完他还是那副样子,又是啥也没说,我心想对还是错你倒是给个准信啊。
又问到了ELMo,让我说明ELMo是如何做到动态词向量的。我:把每个词输入模型,得到的隐状态相加就能得到不同的词向量;
面试官:那说下ELMo的缺点。我说:第一就是多层bilstm天生的缺点:“自己看到自己”的现象,然后举了个例子,balabala……。第二就是无法并行训练,以上两个毛病都可以用bert去改进它;
他又问其实我们可以用加入位置嵌入的方式来改进这个无法并行的问题那为什么非得用bert呢?我一想确实facebook貌似在之前就提出了位置嵌入+textcnn的方式来并行训练。完了,给自己挖坑了。于是乎我就扯了一堆bert里面self-attention的优点,哈哈哈我真是机智。
然后他依旧啥也没说,又让我介绍bert,并且问了multi-head的好处,又问我它的实际物理意义是什么? 왜 그렇게 생각하시나요?举个case说明下。我用尽了我毕生瞎编的本事,凭借着我自己的一点理解硬是说了10分钟,然后结束了是对是错他还是啥也没说……………………
又让我写LSTM的公式,勉强写上了
又问了我一个实际场景问题:用一个模型去分类一堆数据,在training阶段就无法收敛,反复震荡,有可能是什么原因,你有没有在实际场景中遇见过?
我:可能数据是标注错误的或者是随机数据,面试官补刀:假设数据没问题,那是什么原因?
我:那就是模型无法拟合这个数据或者不适合做这类数据的分类,面试官再补刀:假设模型也没问题,足够复杂。
我:那有可能是优化过程陷入了局部最优,而且一直无法跳出,面试官再次补刀:假如优化过程没问题。
我:那就是正负样本极其不均,网络没法学习到东西?面试官:我没说一定是神经网络模型,而且那再假如样本正负分布是均匀的……
我:……那我真没遇见过这样的……
面试官当时貌似不太满意,跟我聊完居然把我的简历给对折了起来!我第一次见这种场面……,心想:哎呦我去凉了,可能一出门面试官就会把我的简历扔垃圾桶里了吧……。面试官让我回去等,晚上如果收到消息就是过了,没收到就是挂了。晚上感觉想哭,毕竟OPPO是我蛮喜欢的一个公司,结果快睡着了突然来了一个短信提醒,说我OPPO面试过了……,得,这下倒好,睡不着了……
1.聊项目比赛,一路下来没问啥知识点,没啥大问题
2.画出ESIM这个模型的结构,并作介绍
3. The interviewer saw that the project of the Second Aerospace Hospital was related to the interception of the missile. It was used to predict the ballistic of the GRNN. Let me introduce the network structure and principles of GRNN, and ask how the forecast accuracy 이다.我说这个题目现在是我的毕设,还没做完呢……
面试官:哦……那你给我说说你要拦截的这个HTV-2是个啥?
我说:是一种美国的临近空间高超声速飞行器,可用于导弹上,对我国国防安全造成威胁,balabalabala……
面试官好像突然来了兴趣,一直问我导弹的事,跟个好奇宝宝一样:这个HTV-2很厉害吗?
我:点头,嗯嗯嗯
面试官:这个HTV-2有啥特点?你们用经典的方法一般是咋拦截的?balabala……
我:额……这些都是保密的……
面试官:哦,那没事了。
4.聊到后面问我有没有了解过一些其他的搜索排序算法,比如list-wise的,pair-wise的,然后给你一堆非常大的大数据,如何实现全数据的搜索排序,我凭借我的理解大致回答了一些,面试官说还不错,让我等下一面
我拿起我的oppo find x给hr一顿瞎BB,意向书成功到手,虽然是白菜价,但是OPPO是我很想去的一家公司,尤其是近几年开始搞些奇奇怪怪的手机出来以后越想去了- . -。
我原以为一面二面回答的不太好的情况下OPPO也愿意要我,而且hr说今年OPPO机器学习投递的简历,光筛选后的985计算机科班硕士的就多的吓人,所以我感觉OPPO今年应该在机器学习这个岗位上招人需求有很多。没想到签约会时候问hr才得知整个哈尔滨加吉林地区,机器学习的offer只有两个……,瞬间脊背发凉……
27.58同城(口头意向,拒了)
其实能面试58我是非常意外的,因为58的笔试编程题我一道都没做出来,选择题差不多一半都是瞎猜的,甚至面试的时候,面试官还把我做错的选择题拿出来又问了我一遍,并且我还是答错了……囧,而且三个面试官都问了我:为什么编程题一道都没做? ………好尴尬,太奇怪了! ? 58怎么会给我面试呢?不过面试时我表现的还不错,最后也拿到了口头意向,但已经签了OPPO就给拒了。
1.还是各种介绍,自我介绍,比赛,项目,为什么转行啥的。
2.我看你用了ESIM这个模型,把模型结构画一下,并且告诉我为什么有用。 매우 간단합니다.
3.算法题:一个数组中和为k的所有二元组,要求时间复杂度为O(n)。 이것도 매우 간단합니다.
4.介绍下BERT以及CRF。老生常谈了,他也没深问。
5.算法题:最小编辑距离,没错又一次被问到了,dp常规思路,只不过需要多考虑边界条件。完美解决。
6.算法题:一块钱一瓶水,三个瓶盖能换一瓶水,问20块最多能买多少瓶水?(用编程方法解决。)面试官午饭没吃,饿的等不及了,我刚想了一分钟还没写出来,面试官说一面就到这儿吧,我以为他要把我挂了,赶快急急地说了思路,面试官说没事你一面过了,走去吃饭吧,噗.......
2.58二面:
二面大多数时候都是我在问面试官,一时间搞不清楚谁才是真面试官……问了些58的业务,以及业务中需要的模型,算法等等的。聊得很开心,当然也有些坑,面试官会穿插着问些技术问题,比如在谈到58的软件内搜索业务的时候,面试官问如何在少量数据的情况下对用户的输入进行快速的意图识别。我说了几条:可以用信息熵来确定用户输入主体,用聚类来做些简单的意图识别等等。
3.58hr面:
一个很漂亮的大姐,很亲和,又是聊人生,结束后告诉我回去等通知。
28.华为(offer,拒了)
我申请的是华为消费者bg软件部的人工智能工程师,自然语言处理/语音处理方向。我听说今年很难进华为,想进消费者更是难上加难,但是我仍然没感觉到有多难进……可能华为比较看重课业成绩和学历吧,因为我感觉我只有这个优势……
上来两到算法题,不过都是很简单的leetcode原题,题目我给忘了,但是都答上了。但是我感觉面试难度看脸,有同学就被甩了两道dp题没答上来一面就挂了。
问的问题都很基础,知识点都是前面的那些,没有什么印象深刻的问题。
算法题:求一个数组中和为k的最长连续数组,暴力法解决的,面试官说没有复杂度要求。
问了槽位的概念,这个我之前真没听过,哎,还是太菜了。
问了些其他的基础问题
聊人生,聊规划,圆满结束,offer到手,签约会的时候,hr说给我安排到北京了,我不太想去北京,而且薪资也不高(我听到的消费者的同学都一个均价,什么硬件研究院、智能车、无线的均价都比消费者高),而且最重要的是,他把我安排到了消费者软件部下的智慧城市这个三级部门,大概率是语音方向的,我不是特别喜欢,就给拒了。
约定电面晚上8点半(阿里是加班到9、10点的节奏?)
主要是商汤无人车实习的项目,问我比baseline提升15个点,怎么来的。
从数据迭代、backbone、模型修改几个层面上说了下。
挑一两个有意思的优化说说,说了cascade、hdcnn的结构,为什么用这种结构。
项目中出现什么情况,怎么解决的?主要就是说小目标检测的解决方案。
对caffe源码熟悉程度。(我扯了扯源码的底层设计模式,数据流怎么流的,如何添加新层、cuda代码的细节)
공개 질문
给了一个情景,如何训练模型、调优。(题目很空,主要考察你对深度学习的理解)
根据需求(前向传播时间、模型大小),确定模型和基础网络,跑第一版模型。(举了个栗子) 判断模型是否出现过拟合的情况,来决定下一步的优化方向。 结果分析(confusionMatrix等),分析问题,将论文中的方法套上去,如果没有自己创造。(又举了个栗子)
softmax、多个logistic的各自的优势?1、类别数爆炸,2、推了下softmax反向传播的公式,来对比两者的优劣。
算法(走流程题) 字符串判断是否是ipv4,c++。(可能是时间不多了,大佬想下班了)
全程大多都是我在说,没有太多互动。后来经过源神@邢源建议,还是要故意给面试官漏点马脚让他们来怼我们,然后再怼回去,并说明不这么做的原因,不然不好拿高评分。(卧槽,真的是套路深啊~)
大佬貌似涉猎很广泛,对每一个领域都很熟悉,基本上简历中的很多细节,他都能找到点怼我。(聊了很久)
项目是从头怼到尾,主要考察对项目、深度学习的理解。
大佬对我的trickList很感兴趣,我猜想他现在做的工作和我的很相似。
Anchor大小、长宽比选取?我说了业界常用的方法(YOLO9000中的方法),并提了一个更优的方法。
为什么要深层、浅层featureMap concat?提了点细节和我踩的坑,需要数量级上的调整,不然深层的feature可能会被压制。
Cascade的思想? 说了下我的摸索的一个过程。改变样本分布,困难样本挖掘,能达到比较好的效果。
文字识别使用ctc loss的一些细节。
设计一个情景,倾斜字体检测,问我有什么好的想法?(我觉得应该是他现在遇到的问题)
数据增强,加入形变扰动。
非end-to-end版本:分别训练检测和分类,举了之前做过的一个文字识别的项目的实现。
end-to-end版本:加入仿射变换学习因子,学习字体倾斜的角度和形变。
在商汤发论文了吗?
没有,正在攒,项目比较重,但有一些work和insight,讲了下思路。(大佬听的很认真,貌似被我的故事打动了[捂脸])
为啥要换实习?日常吹水。
评价:大佬主动评价我对模型理解挺好的,工作做的挺深的,说等下一面吧。
体会:二面面试官说话很快,思维比较敏捷,觉得和这种人讨论问题很欢畅,如果一起工作会很赞。
以后面试说话语速应该快一些,让人觉得思维比较敏捷,这个可能会有加分项吧。
大佬应该是搞backbone模型优化的,问了我怎么迭代基础网络的版本的,日常扯论文,自己的实验结果和理解。
前两个卷积层通道数不用很多,主要是提取边缘、颜色信息,少量的卷积核足矣。
skip connection有什么好处?推了下反向传播公式,根据链式法则,梯度可以直接作用于浅层网络。
初始学习率怎么设?这个我真的没有总结过,只是说一般使用0.01~0.1。
mobileNet、shufflenet的原理?说了下原理。
为什么mobileNet在理论上速度很快,工程上并没有特别大的提升?先说了卷积源码上的实现,两个超大矩阵相乘,可能是group操作,是一些零散的卷积操作,速度会慢。
大佬觉得不满意,说应该从内存上去考虑。申请空间?确实不太清楚。
问我看过哪些前沿的论文?说了说最近两个月的优质的论文。
扯到了tripleLoss,大佬问样本怎么选择?随机,然后就被大佬嫌弃了。装逼失败,这块确实没怎么深入研究。
为什么用multiLoss?多loss权重如何选?训练普通的模型使其收敛,打印反向传播梯度的大小,这表示该task的难度,以此作为loss的权重,然后我补充说了下可以搞一个动态的loss权重,根据一段时间窗口来决定loss的权重。
凸优化了解吗?牛顿法、SGD、最小二乘法,各自的优势。
凸优化其他东西呢?我说只有一些零散的知识点的记忆,纯数学,没有很系统的研究。(面试官貌似数学功底很好,只能认怂)。
感觉有点虚,我尝试着往我会的地方引[捂脸]。 工程上如何对卷积操作进行优化?答:傅立叶模拟卷积。大佬不满意,说那是cudnn早就实现的,还有什么优化吗?(确实不知道,甩锅给工程组)
样本不均衡怎么处理?一个batch类别均等采样,修改loss对不同样本的权重。
三面面试官懂得不少,不过最后还是过了,有时间凸优化还是要系统整理下。
大佬应该不是做深度学习的,应该是机器学习那块的。交流中能感觉出来对这块不是很熟。挑他不会的玩命说,至少让他看到我的工作量。
SVM的KTT条件?说了说,说到SMO实在说不下去了。
GBDT和randomForest区别?原理角度,方差、偏差角度,过拟合角度,谈了谈之前打阿里天池的一些经验吧。
GBDT和xgboost区别? The optimization on the algorithm, I read it before the interview. The summary is good, knowing, more details can see Chen Tianqi's paper. I haven't seen [covering your face]. It is best to see a friend who is a machine 학습.
求和接近于target的连续子数组。(lintcode上有类似的题)
最后说让后面应该还有个hr面。