11월, 2015의 게시물 표시

오피스 365 포기하고 오피스 2010으로 돌아가다

6개월의 구독기간을 남겨두고 오피스 365를 포기했습니다. -_- 오피스 2013도 깔아줘서 참 좋다 생각했지만 포기할 수밖에 없는 이유가 있었습니다. 그 이유는 무지막지한 CPU 사용!!! Excel은 대용량 계산을 위한다며 코어란 코어는 다 쥐어짜고, 계산하는 중간중간 웹 접속 확인하고 싱크 확인하고 별 짓을 다 하더니 순식간에 CPU 사용량을 80% 쓰지... 도대체 저의 LG 그램으로는 따라 갈 수 없습니다. 왠만한 작업에는 랙 걸리기 기본이고 더 문제는 배터리 소비량이 너무 커 이동하며 사용할 수 없다는 것입니다. 그래서 오피스 2010으로 돌아갔습니다. 그랬더니... 갑자기 그램이 너무 좋은 울트라북이 되었답니다. 저는 이동 시에는 초절전 셋팅으로 다닙니다. 오피스 2013을 사용할 때는 최대 CPU를 못해도 50%로 했는데, 이제는 5%에도 빵빵 잘 돌아갑니다. 최소 CPU는 5%에서 2%로 낮췄고, 인텔 그래픽도 Maxium Battery Life로 셋팅을 돌렸습니다. 발열 제로, 소음 제로, 사용 시간 80% 충전 기준으로 6시간 확보. 이 모든 것은 오피스 2013 때문이었습니다. 또한 윈도우즈10의 Microsoft Search 서비스 때문이기도 합니다. 최악! 마소는 각성하라! 서피스에 최적화시키느라, 태블릿에 최적화 시키느라 노트북 사용자들을 개무시하고 있습니다. 그래도 한국에서는 윈도우즈 안쓸 수가 없죠. -_-

수원대학교 Office 2010 인증, 공유기 사용 시

다음 순서를 따라 합니다. 콘솔 창을 관리자 모드로 열어 줍니다. cd C:\Program Files (x86)\Microsoft Office\Office14 cscript ospp.vbs /sethst:kms.suwon.ac.kr cscript ospp.vbs /act 인증 기간이 얼마 남았나 확인하려면 cscript ospp.vbs /dstatus 180일이 되기 전에 인증을 해줘야 합니다. 학기 시작되기 전에 한 번씩 하면 되겠지요? 학생들은 무료로 제공되는 오피스365를 사용해도 됩니다. 학교 홈페이지에 가면 다운로드 링크가 있습니다. OneDrive 용량이 1TB 지원됩니다. 와우~

Windows 10 속도 최적화(tips)

http://www.askvg.com/beginners-guide-to-configure-windows-10-services http://www.askvg.com/master-tutorial-to-make-windows-10-super-fast/ http://windows.wonderhowto.com/how-to/everything-you-need-disable-windows-10-0163552/ http://www.askvg.com/easy-way-to-uninstall-built-in-apps-in-windows-10/

논문 영어

To understand the impact of explanations on decision making when using a KBS, several dimensions must be considered.   While other effects beyond the scope of this study may occur , the effects of particular interest in the current study are the bolded items in Figure 1. Dhaliwal and Benbasat (1996) provide the original theoretical basis for integrating feedforward/feedback modes with different explanation types.  Arnold et al. (2004a) expand on these six forms of explanation to include the other two combinations:  feedforward/definition and feedback/ definition. The model presented in Figure 1 aligns closely with the theory provided by Gregor and Benbasat (1999), particularly with the following propositions: The key is to examine these propositions within the context of a decision-making scenario where the behavior of the decision maker can be observed while working in a cooperative problem solving mode with the system. This expected effect on novices is consistent with the t

Latent variable의 group간 비교: R 사용(updated)

이미지
문정훈 교수님께서 궁금하게 여기시는 latent variable의 그룹 간 평균값을 비교하는 SEM에 대해 소개합니다. 두 가지 접근법이 가능합니다. 보다 자세한 내용은 Qureshi & Compeau (2009) 논문을 참고하시면 됩니다. 두 방법은 Parametric Approach (PA)와 Mean and Covariance Structure (MACS, 혹은 Covariance SEM Approach: CSA)입니다. Qureshi & Compeau (2009)는 정규성이 명확하고, 샘플 사이즈가 작을 때는 PA가 MACS보다 더 좋지만, 여하간 두 결과 모두 타당한 결론에 이른다고 주장합니다. 다만, 정규성 가정이 흔들리면 둘 다 믿기 어렵다는 결론에 이릅니다. 우선, {plspm}으로 PLS 모델을 구축한 다음 formative type의  latent variable에서 PA로 그룹 간 평균을 비교해보고, {lavaan}으로 LISREL 방식의 공분산구조모형을 구축하여 MACS 방법을 사용하는 방법을 보여드립니다. 저는 R을 주로 사용합니다. 아래 예제에서 R>은 R 콘솔을 의미합니다. 데이터 준비 데이터는 CSV 파일로 있어야 하고, 제일 첫 머리는 variable의 이름을 나타냅니다. 우선 데이터가 다음과 같이 Excel로 준비되어 있다면, 파일 이름이 정확한지 확인하고(예제는 testdata.csv), R> sample_data <- read.csv("testdata.csv") 데이터를 확인하려면 R> View(sample_data) R로 데이터를 잘 불러왔습니다. Parametric Approach 이 방법은 PLS를 이용합니다. 구체적으로 다음과 같이 group 간의 t-통계량을 구하는 것이 목표입니다. 보시다시피, 그룹 간 t test합니다. 표준편차 S_p는 각 그룹의 bootstraping standard error의

논문 영어: 서론편 3, 글의 구조 소개 (1~20)

The remainder of this paper consists of the following sections . One promising area of investigation is the ethical dimension of software piracy. The balance of this article is organized as follows .  The first integrates the research with extant theories and provides a conceptual basis for the hypotheses . In the next section, we review and discuss prior literature .  The next section provides an overview of software and human agents’ respective capabilities.  The second section presents the experimental design , and the third section presents the results . To understand an individual’s propensity to pirate software, we develop and test a model of ethical decision making based on the four-component model of morality. Subsequently we detail in turn the research method . We then discuss the theoretical model and hypotheses of this paper . The components of the model are outlined in the next section and some are reinterpreted to incorporate other models of ethical dec

논문 영어: 서론편 2, 문제제기 (1~20)

This study examines the ways in which users with varying levels of expertise use alternative types of KBS explanations and the impact of such use on users’ judgments. Prior research has studied the use of various subsets of explanation types by KBS users of varying knowledge levels. This study examines how professionals with high levels of task experience use a KBS that has a full range of explanation types. Prior research has demonstrated that the type of explanations selected by users differs based on available options. Additionally, prior KBS studies have not used professional decision makers to make high-level, complex judgments, limiting the understanding of how KBS are used and the related impact on decision making processes for systems deployed in corporate environments. The objective of this paper is to examine the relationship between information transparency and consumer willingness to partake in personalization. We examine two research questions . This paper uses a

논문 영어: 서론편 1, 화두 (1~20)

Knowledge-based systems (KBS) and other forms of intelligent systems are frequently used to capture key knowledge and expertise from individuals within an organization . While intelligent systems have not lived up to expectations (Duchessi and O’Keefe 1992), organizations continue to believe KBS can enhance organizational effectiveness. Accordingly , researchers have focused on methods for improving the usability of KBS through enhanced designs, such as integrating explanation facilities. The ability to collect, analyze, and respond to user information is of growing importance . To survive, companies depend on vast quantities of information to build rapport with existing customers and attract new business. However, implicit in the collection of consumer information is a concern for consumer privacy. Information privacy is one of the most important issues facing management practice. The granting of promotion and tenure is quite literally a multimillion dollar decision .

Bradley-Terry Model: paired comparison models

이미지
동기 세상에는 비교할 것이 많습니다. 여러분에게 3가지 옵션이 주어져 있다면 전부 세 번 비교를 할 수 있습니다. 예를 들어, 사과, 바나나, 파인애플 중에서 무엇을 더 좋아하는지 물어볼 수 있습니다. 사과를 A, 바나나를 B, 파인애플을 C라고 하면 A 와 B B 와 C A 와 C 이렇게 비교할 수 있습니다. 비교는 어렵지 않지만, 만약 여러분이 채식을 좋아하는지 육식을 좋아하는지에 따라 비교의 결과가 다른지 알아보려면 어떠한 방법을 써야 할까요? Bradley-Terry의 로그선형모델(Log-Linear Bradley-Terry model, LLBT Model)을 사용하면 답을 얻을 수 있습니다. Paired-comparison 분석 방법은 Categorical data analysis의 일종으로 연구에 응용할 수 있는 여지가 많은 분석 방법입니다. Worth Parameter 우선 worth parameter에 대해 설명을 해야겠습니다. 위의 식은 객체 j를 객체 k보다 좋아할 확률을 계산하는 함수를 보여줍니다. 이때 계산에 사용되는 파이를 worth parameter라고 합니다. worth parameter가 주어져 있다면 선호하는 확률을 계산할 수 있다는 의미입니다. 예를 들어 j의 worth parameter가 7이고, k의 worth parameter가 3이리면 j를 k보다 좋아하는 확률은 0.7(=7/(7+3))입니다. Design Structure LLBT에 관련된 자세한 연구는 Fienberg & Larntz (1976)이나 Dittrich et al. (1998)을 참조하시고... 여기서는 간단히 데이터를 정리해서 {prefmod} 패키지로 LLBT를 사용하는 방법에 초점을 맞추겠습니다. 우선 Response는 결과값을 기록하는 방법입니다. 비교의 앞쪽을 선호하면 1, 뒤쪽을 선호하면 -1이라고 기록했습니다. 미리 설명하지만 {prefmod}에서는 앞쪽을 선호하면 1,

R, 위험과 포트폴리오 계산 등

오랫만에 Facebook에 블로그 글을 올립니다. 학부 1학년들에게 통계학을 가르치면서 R을 사용하고 있답니다. 평균과 분산에 재미를 주기 위해 예들을 많이 구상했지만 못써먹었던 것들이 많습니다. 그 중 하나를 소개합니다. 투자론을 공부하면 통계와 주식 포트폴리오 사이에 상당히 관련이 있다는 점을 알게 됩니다. 어떤 부분에서는 거의 말만 다르고 내용이 똑같습니다. 예를 들어, 여러분이 어떤 투자를 하려 할 때 다음과 같은 상황이 주어졌다고 합시다. (1) 나쁠 때의 확률이 0.1, 이 때의 수익률이 -10% (2) 보통 때의 확률이 0.7, 이 때의 수익률이 20% (3) 좋을 때의 확률이 0.2, 이 때의 수익률이 50% 기대수익률을 R로 계산하면 다음과 같습니다(커서를 R>로 표시). R> CasesProbabilities <- c( 0.1, 0.7, 0.2 ) R> CasesReturns <- c( -0.1, 0.2, 0.5 ) R> ExpectedReturn <- sum( CasesProbabilities * CasesReturns ) R> ExpectedReturn [1] 0.23 23%의 수익이 예상됩니다. 네, 맞아요. 이것은 그냥 평균을 구하는 식입니다. 또한, 위험은 자료의 표준편차로 생각할 수 있습니다. R> ExpectedRisk <- sqrt ( sum ( CasesProbabilities * CasesReturns^2) - ExpectedReturn^2 ) R> ExpectedRisk [1] 0.1615549 원래 공식이, 표준편차 = sqrt(분산) 분산 = 평균(X^2) - 평균^2 이렇습니다. 문제를 좀 더 현실감 있게 바꾸어 보겠습니다. 어떤 주식 A1, A2, A3, A4를 지난 100일 간 관찰했다고 합시다. 100일 중 국내의 경제여건이 좋았을 때와 좋지 않았을 때, 평범했을 때를 분류하고, 각각

옳은 것을 사랑하심

지혜가 길거리에서 부르며 광장에서 소리를 높이며 시끄러운 길목에서 소리를 지르며 성문 어귀와 성중에서 그 소리를 발하여 이르되 너희 어리석은 자들은 어리석음을 좋아하며 거만한 자들은 거만을 기뻐하며 미련한 자들은 지식을 미워하니 어느 때까지 하겠느냐. - 잠언 20:22

수원대학교 2015년 통계학 개론 수강생을 위한 초간단 R

이미지
R을 다운로드 받는 가장 간단한 방법 구글(www.google.com)으로 가서 검색창에 R download라고 입력한다. Windows (base) installer를 찾아 설치하면 된다. R을 실행하기 R은 R i386이나 R x64는 R 콘솔을 실행하는 간단한 그래픽유저인터페이스 도구이다. 실행 창을 통해 이들 프로그램을 찾아 실행한다. 벡터 데이터 입력하기 R의 가장 기본적인 자료형은 벡터이다. 다음과 같이 학생 성적을 나타내는 벡터가 있다고 하자. 10,20,30,40,50,60 이들 자료를 score라는 이름의 벡터로 저장하려면 score = c( 10,20,30,40,50,60 ) 이라고 입력하면 된다. R의 콘솔화면을 보면 앞으로 설명을 위해 R의 명령어 앞에 R> 이라는 기호를 붙인다. 이는 콘솔 명령을 실행하는 것을 뜻한다. 벡터 자료를 보려면 score를 그냥 입력하고 엔터를 누른다. 괄호는 index function을 의미한다. 벡터 score의 첫 번째 원소, 즉 i=1인 경우는 score[1]이고, i=3, 즉 세 번째 원소는 score[3]이다. 1번부터 3번까지, 즉, 1,2,3은 간단하게 1:3이라고 표기한다. 표본 평균과 표본 표준편차 구하기 수업 시간에 배운 표본 평균과 표본 표준편차는 함수  mean()과 sd()로 구할 수 있다. 이들 함수는 벡터를 입력 받는다. 예를 들어 R> mean(score) R> sd(score) 표준정규분포의 probability density function 표준정규분포는 Z~N(0,1)로 표현한다. 이때, Z가 2일 경우의 확률값, 즉 pdf는 dnorm()으로 계산한다. R> dnorm(2) 표준정규분포의 cumulative PDF 누적확률의 경우의 함수는 pnorm()이다. R> pnorm(2) 이 경우에 마이너스 무한대에서 2까지의 누적확률을 구한다. Cumulative PDF의

R의 확률함수, 정규분포

이미지
R은 확률 함수를 가지고 있어요. 우리가 보통(normal) 알고 있는 분포가 정규분포(normal distribution)이지요. 정규분포는 평균값을 중심으로 확률밀도가 대칭이에요. 평균과 분산만 알고 있다면 확률값을 계산할 수 있어 편리해요. R은 분포와 관련해서 네 가지 종류의 머릿 글자를 가지고 있어요. d - probabilty Density: 확률을 계산 p - cumulative Probability: 누적 확률을 계산 q - probabilty Quantily: 누적 확률의 inverse r - probability Random: 주어진 정규분포로 랜덤 값 생성 위의 4번은 사실 분포 활용이고, 3번은 cdf의 역함수라 우리의 관심은 아니에요. 결국 1번 2번에 관심이 가지요. 조금 헷갈리나요? d가 확률이고 p가 누적확률이라는 것? 왜 cdf(cumulative probability density function)이니까 c로 시작해야 할 것 같은데 p로 시작하지요? 음... 이렇게 생각하지요. "확률"이라는 말은 너무 흔해서 그냥 안쓰기로 했어요. 그래서 probability density function(pdf)를 그냥 density function이라고 한 것이지요. 그래서 아! density function이니까 d로 시작해야겠다 이러고 d-로 시작하는 pdf를 정의했어요. 그럼 cdf는요? -____- 시작을 probability 없이 했으니 이것도 첫 단어는 지워버리고 시작해야겠다 생각을 한 것이지요.. 그래서 cumulative probability density function에서 cumulative를 지워버리고 p-로 시작했어요. 데헷. 그리하여... 정규분포를 나타내는 norm 에다가 d와 p를 붙여서... d + norm -> dnorm : 정규분포의 PDF p + norm -> pnorm : 정규분포의 CDF 이렇게 되었어요. 이제 정규분