Search
You can find the results of your search below.
Matching pagenames:
Fulltext results:
- 기획,분석가가 알아야 할 사람에 대한 사실:무작위편향 @blog
- gotten a lot of people that say our shuffle's not random. Well it really is random but sometimes random means you've got two songs from the same artist next to each other. Just happens ran... e added is smart shuffle to actually make it less random - if you want. [[https://www.reddit.com/r/todayil
- Statistics / Machine Learning @data_analysis
- $\sum $ (% of non-events - % of events) * WOE * Random forest can detect non-linear relationship very we... variables via Information Value and using them in random forest model might not produce the most accurate ... ure 와 붙인 뒤에 feature importance를 알 수 있는 의사결정나무 기반의 Random forest, XGBoost 등의 모델로 훈련시켜 shadow features 의 fea... (concat) 4) Feature importance를 잴 수 있는 의사결정나무 기반의 Random forest나 XGBoost 등의 모델을 활용하여 학습합니다. 5) 학습 결과 나온 fe
- 랜덤포레스트가 뭐길래? 회의에서 당당하게, 수식없이 알아보자 @blog
- 레스트 방법을 사용해서 blah blah.. 라는 말을 들었을 때 어떤 생각이 드는가? Random.. Forest.. 랜덤도 아는 단어고, 포레스트도 아는 단어인데.. 무작위.. 숲..?... dex)나 엔트로피(Entropy) 등을 이용한다. (수식은 [[data_analysis:random_forest|여기(매운맛 버전)]]에) 단계별로 가장 불순도가 많이 줄어드는 변수들을 ... 단순 의사결정나무보다 더 Robust한 모형이 된다. 수식은 [[data_analysis:random_forest|]] 참고 ++ ===== 그래서 왜 많이 쓰나? ===== 현실에서 많... 을 해보도록 하자'' ===== Reference ===== [[data_analysis:random_forest|]] 수식있는 매운맛 버전 An Introduction to Statisti
- Tree-based Model, Bagging @data_analysis
- === Tree-based Model, Bagging ====== [[blog:easy_random_forest]] ===== Decision Tree ===== ====Regressio... \rho)}\over{B}} \sigma^2 $ 하지만 각각 독립인 것은 어떻게? -> Random Forest ===== Random Forest ===== 트리들의 correlation을 줄여줌. 상관성을 제거(decorrelate) 간단한 방법으로 배깅된 트리들보다 더 나은 성능을... 큰 경우 OOB오차는 LOOCV 오차와 사실상 동일 ====중요도==== * by random permutation (p번 더 계산) : OOB prediction (j-th 변수 r
- 30명이면 된다고? 회의에서 당당하게, 설문조사를 알아보자. @blog
- ? 회의에서 당당하게, 설문조사를 알아보자. ====== 이전편 [[blog:easy_random_forest]] [[blog:easy_lasso_logistic_regression]] ... 추출해서는 예측이 잘못될 가능성이 높아진다. 또한 중요한 점은, 모든 샘플들은 **무작위random**로 추출되어야 한다는 것이다. 무작위라는 것은 모집단에서 각 고객들이 추출될 확률이 같... f.add_subplot(3, 3, idx+1) spl = [np.mean(np.random.choice(x, n,replace=True)) for i in range(0,10000... e python> i=0 for k in range(0,100): spl = np.random.choice(x, 100,replace=True) sp_mean = np.mean
- Facebook Posting Archive 20년 6월 @blog
- 자연스러운 것과 사람들이 생각하는 자연스러움은 다를 수 있다. \\ 1) random은 random 이다. 쓸데없이 패턴을 찾으려고 하지 말자. \\ 2) 나를 중심으로 하는 것에서 벗어나... \\ #사람에대한사실 3편 \\ [[http://triviaz.net/blog:human_random_bias|http://triviaz.net/blog:human_...]] >> <wrap... 다고 생각하는 경우가 많.... [[http://triviaz.net/blog:human_random_bias|triviaz.net]] </wrap> </wrap> ---- === 마케팅
- Convergence of RV and Testing @data_analysis
- == [[blog:easy_clt_survey]] ==== Convergence of Random Variable ==== ===The Weak Law of Large Numbers (... infty} {1\over{\sqrt{2\pi}}} exp(-x^2/2) dx $ => random variable 그 자체가 아닌, probablity statements 가 근사적으로 ... ly observed. H0이 True일 때, p-value 는 Unif(0,1) 에서 random draw와 같음. H1이 True일 때, p-value의 distribution은 0에... heta$, since $\theta $ is a fixed quantity, not a random variable. * 1. if i repeat the experiment ove
- 인공신경망? 딥러닝? 회의에서 당당하게, 수식없이 알아보자 @blog
- 회의에서 당당하게, 수식없이 알아보자 ====== 이전편 보기 [[blog:easy_random_forest]] [[blog:easy_lasso_logistic_regression]] ... 418-232204.png }}</imgcaption> 저게 뭐지? [[blog:easy_random_forest|의사결정나무]] 같은건가? 엄청 복잡하네.. 라고 생각을 하고는 생각을 접게... 은 '머신러닝'의 여러가지 기법 중의 하나로서, 이전편들에서 보았던 [[blog:easy_random_forest|의사결정나무, 랜덤포레스트]], [[blog:easy_lasso_logist
- 라쏘? 로지스틱? 회의에서 당당하게, 수식없이 기초개념부터 @blog
- 회의에서 당당하게, 수식없이 기초개념부터 ====== 이전편 : [[blog:easy_random_forest|]] 분류문제에서 많이 쓰이는 로지스틱 회귀분석. 회귀분석은 어디서 들어본... 부분, 그냥 넘어간 부분이 많을 수 있음을 염두해 두자. 이전 편 [[blog:easy_random_forest|랜덤포레스트]]와 달리, 회귀분석류들은 결과 자체가 함수의 형태로 표현되기
- MENU
- [[allpage|All Pages]] * <randompage_link>Go to Random page</randompage_link> <wrap hide>{indexmenu>:#1|
- MAIN PAGE
- ed, the proper way appears. ---- <randompage_link>Random page</randompage_link> [[?do=recent&show_changes=
- 차원이 문제? 주성분분석? 회의에서 당당하게, 수식없이 알아보자 @blog
- pasted:20200502-150859.png?1 }} 이전편: [[blog:easy_random_forest]] [[blog:easy_lasso_logistic_regression]]
- Facebook Posting Archive 20년 4월 @blog
- 들었을 때 어떤 생각이 드는가? [[http://triviaz.net/blog:easy_random_forest|triviaz.net]] </wrap> </wrap> ---- === N
- A/B test @data_analysis
- control/treatment, 지표, bayesian/frequentist * Random unit : user/session/page * Target unit : 전체 /
- Probability Distributions @data_analysis
- {k+r-1 \choose r} p^k (1-p)^r$$ where $X$ is the random variable representing the number of trials until