Correlational Research in Detail with all Steps- Dr. Vikramjit Singh.pdf
1. Correlational Research in Detail with all Steps
By Vikramjit Singh
Correlational research is a type of non-experimental
research that focuses on examining the relationships
between two or more variables. It aims to determine
whether there is a statistical relationship or correlation
between variables, without implying causation. Here are
the steps involved in conducting correlational research:
Step 1: Define the Research Question or Hypothesis
- Begin by formulating a clear research question or
hypothesis that specifies the relationship between the
variables you want to study. For example, you might want
to investigate whether there is a correlation between study
hours and exam scores.
Step 2: Select the Variables
- Identify the variables of interest in your research
question. In the example mentioned, the variables would
be "study hours" and "exam scores." Ensure that these
variables are measurable and can be quantified.
Step 3: Choose a Research Design
- Correlational research involves the observation and
measurement of existing variables, so it does not involve
2. experimental manipulation. Instead, it uses observational
or survey methods.
- Decide on the specific design of your study. You can
choose from various types of correlation studies, such as
Pearson's correlation coefficient, Spearman's rank
correlation coefficient, or point-biserial correlation,
depending on the nature of your data.
Step 4: Data Collection
- Collect data on the chosen variables from your sample.
The sample should be representative of the population
you want to generalize to. Data can be collected through
surveys, questionnaires, observations, or by accessing
existing datasets.
Step 5: Data Analysis
- Perform the appropriate statistical analysis to determine
the correlation between the variables. Common statistical
techniques include:
- Pearson's Correlation Coefficient (r): Used for
measuring the strength and direction of a linear
relationship between two continuous variables.
- Spearman's Rank Correlation Coefficient (ρ or rs):
Appropriate when the relationship between variables is
monotonic but not necessarily linear. It works with ordinal
or interval data.
3. - Point-Biserial Correlation: Used when one variable is
continuous, and the other is dichotomous.
- The results of the analysis will provide you with a
correlation coefficient, which indicates the strength and
direction of the relationship between the variables. The
coefficient ranges from -1 (perfect negative correlation) to
1 (perfect positive correlation), with 0 indicating no
correlation.
Step 6: Interpret the Results
- Analyze and interpret the correlation coefficient.
Determine whether the correlation is statistically
significant, which means that it is unlikely to have occurred
by chance.
- Consider the direction of the correlation: Is it positive
(both variables increase together)- Time and Interest,
negative (one variable increases as the other decreases)-
Speed of the care time taken to reach destination, or
near-zero (no relationship)- amount of tea drunk and level
of intelligence?
- Assess the strength of the correlation. The closer the
coefficient is to -1 or 1, the stronger the correlation.
Step 7: Draw Conclusions
- Based on the results, draw conclusions about the
relationship between the variables. Remember that
correlation does not imply causation. If a correlation exists,
4. it means that the variables are related in some way, but it
does not indicate that one variable causes the other.
Step 8: Report Findings
- Write a research report or article that communicates your
findings. Include details about the research design, data
collection methods, analysis, results, and conclusions.
- Be transparent about limitations and potential sources of
bias in your study.
Step 9: Peer Review and Publication
- If applicable, submit your research for peer review and
publication in a scientific journal.
Correlational research is valuable for exploring
relationships between variables, identifying patterns, and
generating hypotheses for further research. However,
researchers must be cautious when interpreting results
and avoid making causal claims based solely on
correlations.
Correlation is a statistical measure used in correlational
studies to assess the strength and direction of the
relationship between two or more variables. The type of
correlation and its interpretation depend on the
characteristics of the variables involved. Here are different
types of correlation and their interpretations in the context
of correlational studies:
5. 1. Positive Correlation:
- Definition: A positive correlation exists when an
increase in one variable is associated with an increase in
the other variable, and a decrease in one variable is
associated with a decrease in the other variable.
- Interpretation: In a positive correlation, as one variable
goes up, the other tends to go up as well. For example, in
a study on exercise and heart health, a positive correlation
might indicate that people who engage in more physical
activity tend to have lower rates of heart disease.
2. Negative Correlation:
- Definition: A negative correlation occurs when an
increase in one variable is associated with a decrease in
the other variable, and vice versa.
- Interpretation: In a negative correlation, as one variable
increases, the other tends to decrease. For instance, in a
study examining the relationship between smoking and
lung function, a negative correlation might imply that
individuals who smoke more tend to have lower lung
function.
3. Zero Correlation:
- Definition: A zero correlation (correlation coefficient r =
0) indicates no systematic relationship between the
6. variables. Changes in one variable are not associated with
changes in the other.
- Interpretation: When variables have a zero correlation,
there is no discernible pattern or relationship between
them. For instance, in a study comparing shoe size and
IQ, a zero correlation suggests that shoe size and IQ are
unrelated.
4. Strong Correlation:
- Definition: A strong correlation implies that the
relationship between the variables is pronounced and
consistent. The values of the correlation coefficient are
close to either -1 or 1.
- Interpretation: In a study on temperature and ice cream
sales, a strong positive correlation might suggest that as
the temperature rises, ice cream sales significantly
increase. Conversely, a strong negative correlation could
indicate that as the temperature increases, sales of hot
chocolate decrease.
5. Weak Correlation:
- Definition: A weak correlation suggests a less
pronounced or less consistent relationship between the
variables. The values of the correlation coefficient are
closer to 0.
- Interpretation: In a study examining the relationship
between study time and exam scores, a weak positive
7. correlation may indicate that more study time tends to be
associated with slightly higher exam scores, but the effect
is not substantial.
6. Non-Linear Correlation:
- Definition: In some cases, the relationship between
variables may not be linear but still exhibit some form of
association. Non-linear correlations can take various
shapes, such as quadratic or exponential.
- Interpretation: For instance, in a study on the effect of
fertilizer on plant growth, there might be a non-linear
correlation where initially, more fertilizer leads to faster
growth, but beyond a certain point, further increases in
fertilizer have diminishing returns.
7. Spurious Correlation:
- Definition: A spurious correlation occurs when two
variables appear to be related, but the relationship is not
causal. It may be due to the influence of a third,
confounding variable.
- Interpretation: For example, there might be a
correlation between the sale of ice cream and the number
of drownings during the summer months. However, this is
a spurious correlation because it's likely driven by a third
variable, such as increased outdoor activity in hot weather.
8. Partial Correlation:
8. - Definition: A partial correlation measures the strength
of the relationship between two variables while controlling
for the influence of one or more other variables. It helps
assess the direct relationship between variables.
- Interpretation: In a study examining the relationship
between income and happiness while controlling for
education level, a partial correlation could reveal the
specific impact of income on happiness, accounting for the
potential influence of education.
Interpreting correlations in correlational studies requires
caution, as correlation does not imply causation.
Establishing causation typically requires experimental
research. Correlations can provide valuable insights into
associations between variables, guide further research,
and inform decision-making in various fields, including
psychology, sociology, economics, and epidemiology.
Researchers must consider the context and limitations of
their studies when interpreting correlation results.
In correlational research, the primary focus is on
examining the relationships or associations between
variables. These relationships are quantified using
correlation coefficients, which provide information about
the strength and direction of the relationship between two
variables. There are different types of correlation, each
suited to specific types of data and research questions.
9. Here are some common types of correlation in relation to
correlational research:
1. Pearson's Correlation Coefficient (r):
- Type: Parametric
- Data Type: Interval or ratio
- Use: Measures the strength and direction of a linear
relationship between two continuous variables. It is
appropriate when the relationship between variables
follows a linear pattern.
- Range: -1 (perfect negative correlation) to 1 (perfect
positive correlation), with 0 indicating no correlation.
- Example: Examining the correlation between the
number of hours spent studying and exam scores.
2. Spearman's Rank Correlation Coefficient (ρ or rs):
- Type: Non-parametric
- Data Type: Ordinal, interval, or ratio
- Use: Measures the strength and direction of a
monotonic relationship between two variables. It is
appropriate when the relationship is not necessarily linear
but still follows a consistent pattern.
- Range: -1 (perfect negative monotonic correlation) to 1
(perfect positive monotonic correlation), with 0 indicating
no monotonic correlation.
- Example: Assessing the correlation between the ranks
of students based on their study time and exam scores.
10. 3. Kendall's Tau (τ):
- Type: Non-parametric
- Data Type: Ordinal
- Use: Measures the strength and direction of
association between two ordinal variables. It is suitable
when dealing with categorical or ordinal data.
- Range: -1 (perfect negative association) to 1 (perfect
positive association), with 0 indicating no association.
- Example: Analyzing the association between the order
of finish in a race (1st, 2nd, 3rd, etc.) and the runners'
ages.
4. Point-Biserial Correlation:
- Type: Parametric
- Data Type: One continuous variable and one
dichotomous variable
- Use: Measures the strength and direction of the
relationship between a continuous variable and a binary
(dichotomous) variable.
- Range: -1 to 1, with 0 indicating no correlation.
- Example: Examining the correlation between students'
hours of study (continuous) and their pass/fail status
(dichotomous).
5. Phi Coefficient (φ):
- Type: Parametric
11. - Data Type: Both variables are dichotomous
(categorical with two levels)
- Use: Measures the strength and direction of the
association between two dichotomous variables.
- Range: -1 to 1, with 0 indicating no association.
- Example: Investigating the association between gender
(male/female) and voting preference (yes/no).
6. Cramer's V:
- Type: Non-parametric
- Data Type: Categorical (usually in a contingency table)
- Use: Measures the strength and direction of
association between two categorical variables. It is an
extension of the phi coefficient for tables larger than 2x2.
- Range: 0 (no association) to 1 (perfect association).
- Example: Studying the association between education
level (e.g., high school, college, graduate) and
employment status (e.g., employed, unemployed).
These different types of correlation coefficients allow
researchers to analyze relationships between various
types of variables, from continuous to categorical. The
choice of which correlation coefficient to use depends on
the nature of the data and the research question being
investigated. It's important to select the most appropriate
correlation method to ensure accurate and meaningful
results in correlational research.
12. Interpreting correlational values in relation to degrees of
freedom (df) and the p-value (probability value) is an
essential part of analyzing the results of a correlation
analysis. Let's break down the interpretation step by step:
1. Correlation Coefficient (r):
- The correlation coefficient (r) quantifies the strength
and direction of the linear relationship between two
continuous variables. It ranges from -1 (perfect negative
correlation) to 1 (perfect positive correlation), with 0
indicating no correlation.
- A positive value of r indicates a positive correlation (as
one variable increases, the other tends to increase), while
a negative value of r indicates a negative correlation (as
one variable increases, the other tends to decrease).
2. Degrees of Freedom (df):
- Degrees of freedom (df) are a concept in statistics that
represent the number of values in the final calculation of a
statistic that are free to vary. In the context of correlation,
df typically refers to the number of pairs of data points
minus 2 (df = n - 2), where "n" is the sample size.
- Degrees of freedom are important when conducting
hypothesis tests and calculating the p-value.
3. P-Value (Probability Value):
13. - The p-value is a measure of the probability that the
observed correlation coefficient (or a more extreme value)
occurred by chance alone, assuming that there is no true
correlation in the population.
- In hypothesis testing, a smaller p-value indicates
stronger evidence against the null hypothesis (i.e., the
hypothesis that there is no correlation in the population).
Common significance levels (α) used to determine
statistical significance include 0.05 and 0.01.
Now, let's interpret these values in relation to each other:
- Significance Level (α): Determine the significance level
(α) you are using for your hypothesis test. This is typically
set before conducting the analysis (e.g., α = 0.05).
- Hypothesis Testing:
- Null Hypothesis (H0): The null hypothesis posits that
there is no correlation in the population (i.e., r = 0).
- Alternative Hypothesis (Ha): The alternative hypothesis
suggests that there is a significant correlation in the
population (i.e., r ≠ 0 for a two-tailed test).
- Calculating the p-value:
- Using the sample correlation coefficient (r) and the
degrees of freedom (df), calculate the p-value associated
with your correlation.
14. - If the p-value is less than or equal to your chosen
significance level (α), you reject the null hypothesis (H0) in
favor of the alternative hypothesis (Ha). This indicates that
there is a significant correlation in the population.
- Interpretation:
- If p ≤ α: You have evidence to conclude that there is a
statistically significant correlation between the two
variables. The correlation coefficient (r) quantifies the
strength and direction of this relationship.
- If p > α: You do not have sufficient evidence to
conclude that there is a statistically significant correlation.
In this case, you fail to reject the null hypothesis.
For example, if you calculated a correlation coefficient (r)
of 0.70 with a sample size that yields 18 degrees of
freedom (df = 18), and you set your significance level at α
= 0.05, and the resulting p-value is p < 0.05, you would
interpret this as follows: "There is a statistically significant
positive correlation (r = 0.70, p < 0.05) between the two
variables."
In summary, the interpretation of a correlational value
involves considering the correlation coefficient (r), the
degrees of freedom (df), and the p-value in the context of
hypothesis testing. The p-value helps you determine
15. whether the correlation you observed is statistically
significant or likely to have occurred by chance.
सहसंबंधी अनुसंधान
विक्रमजीत सिंह
सहसंबंधी अनुसंधान एक प्रकार का गैर-प्रयोगात्मक अनुसंधान है जो दो या दो
से अधिक चरों क
े बीच संबंधों की जांच करने पर क
ें द्रित है। इसका उद्देश्य यह
निर्धारित करना है कि कार्य-कारण का संक
े त दिए बिना, चर क
े बीच कोई
सांख्यिकीय संबंध या सहसंबंध है या नहीं। सहसंबंधी अनुसंधान करने में
शामिल चरण यहां दिए गए हैं:
चरण 1: शोध प्रश्न या परिकल्पना को परिभाषित करें
- एक स्पष्ट शोध प्रश्न या परिकल्पना तैयार करक
े शुरुआत करें जो उन चरों
क
े बीच संबंध को निर्दिष्ट करता है जिनका आप अध्ययन करना चाहते हैं।
उदाहरण क
े लिए, आप यह जांच करना चाहेंगे कि क्या अध्ययन क
े घंटों और
परीक्षा क
े अंकों क
े बीच कोई संबंध है।
चरण 2: वेरिएबल का चयन करें
- अपने शोध प्रश्न में रुचि क
े चरों को पहचानें। उल्लिखित उदाहरण में, चर
"अध्ययन क
े घंटे" और "परीक्षा स्कोर" होंगे। सुनिश्चित करें कि ये चर मापने
योग्य हैं और इन्हें परिमाणित किया जा सकता है।
चरण 3: एक शोध डिज़ाइन चुनें
- सहसंबंध अनुसंधान में मौजूदा चर का अवलोकन और माप शामिल है,
इसलिए इसमें प्रयोगात्मक हेरफ
े र शामिल नहीं है। इसक
े बजाय, यह
अवलोकन या सर्वेक्षण विधियों का उपयोग करता है।
- अपने अध्ययन क
े विशिष्ट डिज़ाइन पर निर्णय लें। आप अपने डेटा की
प्रकृ ति क
े आधार पर विभिन्न प्रकार क
े सहसंबंध अध्ययनों में से चुन सकते हैं,
16. जैसे कि पियर्सन का सहसंबंध गुणांक, स्पीयरमैन का रैंक सहसंबंध गुणांक, या
बिंदु-द्विक्रमिक सहसंबंध।
चरण 4: डेटा संग्रह
- अपने नमूने से चुने गए चर पर डेटा एकत्र करें। नमूना उस जनसंख्या का
प्रतिनिधि होना चाहिए जिसका आप सामान्यीकरण करना चाहते हैं। डेटा को
सर्वेक्षण, प्रश्नावली, अवलोकन या मौजूदा डेटासेट तक पहुंच क
े माध्यम से
एकत्र किया जा सकता है।
चरण 5: डेटा विश्लेषण
- चरों क
े बीच सहसंबंध निर्धारित करने क
े लिए उचित सांख्यिकीय विश्लेषण
करें। सामान्य सांख्यिकीय तकनीकों में शामिल हैं:
- पियर्सन का सहसंबंध गुणांक (आर): दो निरंतर चर क
े बीच रैखिक संबंध
की ताकत और दिशा को मापने क
े लिए उपयोग किया जाता है।
- स्पीयरमैन का रैंक सहसंबंध गुणांक (ρ या rs): उपयुक्त है जब चर क
े बीच
संबंध मोनोटोनिक है लेकिन जरूरी नहीं कि रैखिक हो। यह क्रमसूचक या
अंतराल डेटा क
े साथ काम करता है।
- बिंदु-द्विक्रमिक सहसंबंध: इसका उपयोग तब किया जाता है जब एक चर
निरंतर होता है, और दूसरा द्विभाजित होता है।
- विश्लेषण क
े परिणाम आपको एक सहसंबंध गुणांक प्रदान करेंगे, जो चर क
े
बीच संबंध की ताकत और दिशा को इंगित करता है। गुणांक -1 (पूर्ण
नकारात्मक सहसंबंध) से लेकर 1 (पूर्ण सकारात्मक सहसंबंध) तक होता है,
जिसमें 0 कोई सहसंबंध नहीं दर्शाता है।
चरण 6: परिणामों की व्याख्या करें
- सहसंबंध गुणांक का विश्लेषण और व्याख्या करें। निर्धारित करें कि क्या
सहसंबंध सांख्यिकीय रूप से महत्वपूर्ण है, जिसका अर्थ है कि यह संयोग से
घटित होने की संभावना नहीं है।
- सहसंबंध की दिशा पर विचार करें: क्या यह सकारात्मक है (दोनों चर एक
साथ बढ़ते हैं) - समय और ब्याज, नकारात्मक (एक चर बढ़ता है क्योंकि दूसरा
17. घटता है) - गंतव्य तक पहुंचने में लगने वाले देखभाल समय की गति, या
लगभग-शून्य (कोई संबंध नहीं) )- चाय पीने की मात्रा और बुद्धि का स्तर?
- सहसंबंध की ताकत का आकलन करें. गुणांक -1 या 1 क
े जितना करीब
होगा, सहसंबंध उतना ही मजबूत होगा।
चरण 7: निष्कर्ष निकालें
- परिणामों क
े आधार पर, चर क
े बीच संबंध क
े बारे में निष्कर्ष निकालें। याद
रखें कि सहसंबंध का अर्थ कार्य-कारण नहीं है। यदि कोई सहसंबंध मौजूद है, तो
इसका मतलब है कि चर किसी तरह से संबंधित हैं, लेकिन यह इंगित नहीं
करता है कि एक चर दूसरे का कारण बनता है।
चरण 8: निष्कर्षों की रिपोर्ट करें
- एक शोध रिपोर्ट या लेख लिखें जो आपक
े निष्कर्षों को संप्रेषित करे।
अनुसंधान डिजाइन, डेटा संग्रह विधियों, विश्लेषण, परिणाम और निष्कर्ष क
े
बारे में विवरण शामिल करें।
- अपने अध्ययन में सीमाओं और पूर्वाग्रह क
े संभावित स्रोतों क
े बारे में पारदर्शी
रहें।
चरण 9: सहकर्मी समीक्षा और प्रकाशन
- यदि लागू हो, तो अपने शोध को किसी वैज्ञानिक पत्रिका में सहकर्मी समीक्षा
और प्रकाशन क
े लिए प्रस्तुत करें।
सहसंबंधी अनुसंधान चरों क
े बीच संबंधों की खोज करने, पैटर्न की पहचान
करने और आगे क
े शोध क
े लिए परिकल्पना तैयार करने क
े लिए मूल्यवान है।
हालाँकि, शोधकर्ताओं को परिणामों की व्याख्या करते समय सतर्क रहना
चाहिए और क
े वल सहसंबंधों क
े आधार पर कारणात्मक दावे करने से बचना
चाहिए।
सहसंबंध एक सांख्यिकीय माप है जिसका उपयोग सहसंबंध संबंधी अध्ययनों
में दो या दो से अधिक चरों क
े बीच संबंधों की ताकत और दिशा का आकलन
करने क
े लिए किया जाता है। सहसंबंध का प्रकार और इसकी व्याख्या इसमें
18. शामिल चर की विशेषताओं पर निर्भर करती है। यहां सहसंबंध अध्ययन क
े
संदर्भ में विभिन्न प्रकार क
े सहसंबंध और उनकी व्याख्याएं दी गई हैं:
1. सकारात्मक सहसंबंध:
- परिभाषा: एक सकारात्मक सहसंबंध तब मौजूद होता है जब एक चर में
वृद्धि दूसरे चर में वृद्धि क
े साथ जुड़ी होती है, और एक चर में कमी दूसरे चर
में कमी क
े साथ जुड़ी होती है।
- व्याख्या: एक सकारात्मक सहसंबंध में, जैसे-जैसे एक चर ऊपर जाता है,
दूसरा भी ऊपर जाता है। उदाहरण क
े लिए, व्यायाम और हृदय स्वास्थ्य पर
एक अध्ययन में, एक सकारात्मक सहसंबंध यह संक
े त दे सकता है कि जो
लोग अधिक शारीरिक गतिविधि में संलग्न होते हैं उनमें हृदय रोग की दर कम
होती है।
2. नकारात्मक सहसंबंध:
- परिभाषा: एक नकारात्मक सहसंबंध तब होता है जब एक चर में वृद्धि
दूसरे चर में कमी क
े साथ जुड़ी होती है, और इसक
े विपरीत।
- व्याख्या: एक नकारात्मक सहसंबंध में, जैसे-जैसे एक चर बढ़ता है, दूसरा
घटता जाता है। उदाहरण क
े लिए, धूम्रपान और फ
े फड़ों की कार्यक्षमता क
े बीच
संबंधों की जांच करने वाले एक अध्ययन में, एक नकारात्मक सहसंबंध का
अर्थ यह हो सकता है कि जो व्यक्ति अधिक धूम्रपान करते हैं उनक
े फ
े फड़े कम
कार्य करते हैं।
3. शून्य सहसंबंध:
- परिभाषा: एक शून्य सहसंबंध (सहसंबंध गुणांक r = 0) चर क
े बीच कोई
व्यवस्थित संबंध नहीं दर्शाता है। एक चर में परिवर्तन दूसरे में परिवर्तन से
संबद्ध नहीं हैं।
- व्याख्या: जब चरों का शून्य सहसंबंध होता है, तो उनक
े बीच कोई स्पष्ट
पैटर्न या संबंध नहीं होता है। उदाहरण क
े लिए, जूते क
े आकार और आईक्यू की
तुलना करने वाले एक अध्ययन में, शून्य सहसंबंध से पता चलता है कि जूते
का आकार और आईक्यू असंबंधित हैं।
19. 4. मजबूत सहसंबंध:
- परिभाषा: एक मजबूत सहसंबंध का तात्पर्य है कि चर क
े बीच संबंध स्पष्ट
और सुसंगत है। सहसंबंध गुणांक का मान या तो -1 या 1 क
े करीब है।
- व्याख्या: तापमान और आइसक्रीम की बिक्री पर एक अध्ययन में, एक
मजबूत सकारात्मक सहसंबंध सुझाव दे सकता है कि जैसे-जैसे तापमान बढ़ता
है, आइसक्रीम की बिक्री में काफी वृद्धि होती है। इसक
े विपरीत, एक मजबूत
नकारात्मक सहसंबंध यह संक
े त दे सकता है कि जैसे-जैसे तापमान बढ़ता है,
हॉट चॉकलेट की बिक्री कम हो जाती है।
5. कमजोर सहसंबंध:
- परिभाषा: एक कमजोर सहसंबंध चर क
े बीच कम स्पष्ट या कम सुसंगत
संबंध का सुझाव देता है। सहसंबंध गुणांक का मान 0 क
े करीब है।
- व्याख्या: अध्ययन क
े समय और परीक्षा क
े अंकों क
े बीच संबंधों की जांच
करने वाले एक अध्ययन में, एक कमजोर सकारात्मक सहसंबंध यह संक
े त दे
सकता है कि अधिक अध्ययन का समय थोड़ा अधिक परीक्षा अंकों क
े साथ
जुड़ा हुआ है, लेकिन प्रभाव पर्याप्त नहीं है।
6. गैर-रैखिक सहसंबंध:
- परिभाषा: क
ु छ मामलों में, चर क
े बीच संबंध रैखिक नहीं हो सकता है
लेकिन फिर भी किसी प्रकार का जुड़ाव प्रदर्शित होता है। गैर-रैखिक सहसंबंध
विभिन्न आकार ले सकते हैं, जैसे द्विघात या घातांकीय।
- व्याख्या: उदाहरण क
े लिए, पौधों की वृद्धि पर उर्वरक क
े प्रभाव पर एक
अध्ययन में, एक गैर-रैखिक सहसंबंध हो सकता है जहां शुरू में, अधिक उर्वरक
से तेजी से विकास होता है, लेकिन एक निश्चित बिंदु क
े बाद, उर्वरक में और
वृद्धि से रिटर्न कम हो जाता है।
7. नकली सहसंबंध:
20. - परिभाषा: एक नकली सहसंबंध तब होता है जब दो चर संबंधित प्रतीत होते
हैं, लेकिन संबंध कारणात्मक नहीं होता है। यह किसी तीसरे, भ्रमित करने वाले
चर क
े प्रभाव क
े कारण हो सकता है।
- व्याख्या: उदाहरण क
े लिए, गर्मी क
े महीनों क
े दौरान आइसक्रीम की बिक्री
और डूबने वालों की संख्या क
े बीच संबंध हो सकता है। हालाँकि, यह एक
नकली सहसंबंध है क्योंकि यह संभवतः तीसरे चर से प्रेरित है, जैसे कि गर्म
मौसम में बाहरी गतिविधि में वृद्धि।
8. आंशिक सहसंबंध:
- परिभाषा: आंशिक सहसंबंध एक या अधिक अन्य चर क
े प्रभाव को
नियंत्रित करते हुए दो चर क
े बीच संबंध की ताकत को मापता है। यह चरों क
े
बीच सीधे संबंध का आकलन करने में मदद करता है।
- व्याख्या: शिक्षा क
े स्तर को नियंत्रित करते हुए आय और खुशी क
े बीच
संबंधों की जांच करने वाले एक अध्ययन में, आंशिक सहसंबंध खुशी पर आय
क
े विशिष्ट प्रभाव को प्रकट कर सकता है, जो शिक्षा क
े संभावित प्रभाव को
ध्यान में रखता है।
सहसंबंध संबंधी अध्ययनों में सहसंबंधों की व्याख्या करने में सावधानी की
आवश्यकता होती है, क्योंकि सहसंबंध का अर्थ कार्य-कारण नहीं होता है।
कार्य-कारण स्थापित करने क
े लिए आमतौर पर प्रायोगिक अनुसंधान की
आवश्यकता होती है। सहसंबंध चर क
े बीच संबंधों में मूल्यवान अंतर्दृष्टि प्रदान
कर सकते हैं, आगे क
े शोध का मार्गदर्शन कर सकते हैं और मनोविज्ञान,
समाजशास्त्र, अर्थशास्त्र और महामारी विज्ञान सहित विभिन्न क्षेत्रों में निर्णय
लेने की जानकारी दे सकते हैं। सहसंबंध परिणामों की व्याख्या करते समय
शोधकर्ताओं को अपने अध्ययन क
े संदर्भ और सीमाओं पर विचार करना
चाहिए।
सहसंबंधी अनुसंधान में, प्राथमिक ध्यान चरों क
े बीच संबंधों या संबंधों की
जांच करने पर होता है। इन संबंधों को सहसंबंध गुणांक का उपयोग करक
े
परिमाणित किया जाता है, जो दो चर क
े बीच संबंधों की ताकत और दिशा क
े
21. बारे में जानकारी प्रदान करता है। विभिन्न प्रकार क
े सहसंबंध हैं, प्रत्येक
विशिष्ट प्रकार क
े डेटा और शोध प्रश्नों क
े लिए उपयुक्त हैं। यहां सहसंबंधी
अनुसंधान क
े संबंध में क
ु छ सामान्य प्रकार क
े सहसंबंध दिए गए हैं:
1. पियर्सन का सहसंबंध गुणांक (आर):
- प्रकार: पैरामीट्रिक
- डेटा प्रकार: अंतराल या अनुपात
- उपयोग: दो सतत चरों क
े बीच रैखिक संबंध की ताकत और दिशा को
मापता है। यह तब उपयुक्त होता है जब चरों क
े बीच संबंध एक रैखिक पैटर्न
का अनुसरण करता है।
- रेंज: -1 (पूर्ण नकारात्मक सहसंबंध) से 1 (पूर्ण सकारात्मक सहसंबंध),
जिसमें 0 कोई सहसंबंध नहीं दर्शाता है।
- उदाहरण: पढ़ाई में बिताए गए घंटों की संख्या और परीक्षा क
े अंकों क
े बीच
संबंध की जांच करना।
2. स्पीयरमैन का रैंक सहसंबंध गुणांक (ρ या rs):
- प्रकार: गैर-पैरामीट्रिक
- डेटा प्रकार: क्रमसूचक, अंतराल, या अनुपात
- उपयोग: दो चरों क
े बीच एक मोनोटोनिक संबंध की ताकत और दिशा को
मापता है। यह तब उचित है जब संबंध आवश्यक रूप से रैखिक नहीं है लेकिन
फिर भी एक सुसंगत पैटर्न का अनुसरण करता है।
- रेंज: -1 (पूर्ण नकारात्मक मोनोटोनिक सहसंबंध) से 1 (पूर्ण सकारात्मक
मोनोटोनिक सहसंबंध), 0 क
े साथ कोई मोनोटोनिक सहसंबंध नहीं दर्शाता है।
- उदाहरण: छात्रों क
े अध्ययन क
े समय और परीक्षा अंकों क
े आधार पर
उनकी रैंक क
े बीच सहसंबंध का आकलन करना।
3. क
ें डल का ताऊ (τ):
- प्रकार: गैर-पैरामीट्रिक
- डेटा प्रकार: सामान्य
- उपयोग: दो क्रमिक चरों क
े बीच जुड़ाव की ताकत और दिशा को मापता है।
श्रेणीबद्ध या क्रमिक डेटा से निपटने क
े दौरान यह उपयुक्त है।
22. - रेंज: -1 (पूर्ण नकारात्मक संगति) से 1 (पूर्ण सकारात्मक संगति), जिसमें
0 कोई संगति नहीं दर्शाता है।
- उदाहरण: दौड़ में समापन क
े क्रम (प्रथम, द्वितीय, तृतीय, आदि) और
धावकों की उम्र क
े बीच संबंध का विश्लेषण करना।
4. बिंदु-द्विक्रमिक सहसंबंध:
- प्रकार: पैरामीट्रिक
- डेटा प्रकार: एक सतत चर और एक द्विभाजित चर
- उपयोग: एक सतत चर और एक द्विआधारी (द्विभाजित) चर क
े बीच
संबंध की ताकत और दिशा को मापता है।
- रेंज: -1 से 1, 0 क
े साथ कोई सहसंबंध नहीं दर्शाता है।
- उदाहरण: छात्रों क
े अध्ययन क
े घंटे (निरंतर) और उनकी उत्तीर्ण/असफल
स्थिति (द्विभाजित) क
े बीच संबंध की जांच करना।
5. फी गुणांक (φ):
- प्रकार: पैरामीट्रिक
- डेटा प्रकार: दोनों चर द्विभाजित हैं (दो स्तरों क
े साथ श्रेणीबद्ध)
- उपयोग: दो द्विभाजित चरों क
े बीच संबंध की ताकत और दिशा को मापता
है।
- रेंज: -1 से 1, 0 क
े साथ कोई संबंध नहीं दर्शाता है।
- उदाहरण: लिंग (पुरुष/महिला) और मतदान प्राथमिकता (हां/नहीं) क
े बीच
संबंध की जांच करना।
6. क्र
ै मर वी:
- प्रकार: गैर-पैरामीट्रिक
- डेटा प्रकार: श्रेणीबद्ध (आमतौर पर एक आकस्मिक तालिका में)
- उपयोग: दो श्रेणीगत चरों क
े बीच जुड़ाव की ताकत और दिशा को मापता
है। यह 2x2 से बड़ी तालिकाओं क
े लिए फाई गुणांक का विस्तार है।
- रेंज: 0 (कोई एसोसिएशन नहीं) से 1 (परफ
े क्ट एसोसिएशन)।
23. - उदाहरण: शिक्षा स्तर (जैसे, हाई स्क
ू ल, कॉलेज, स्नातक) और रोजगार की
स्थिति (जैसे, नियोजित, बेरोजगार) क
े बीच संबंध का अध्ययन करना।
ये विभिन्न प्रकार क
े सहसंबंध गुणांक शोधकर्ताओं को निरंतर से श्रेणीबद्ध
तक विभिन्न प्रकार क
े चर क
े बीच संबंधों का विश्लेषण करने की अनुमति देते
हैं। किस सहसंबंध गुणांक का उपयोग करना है यह डेटा की प्रकृ ति और जांच
किए जा रहे शोध प्रश्न पर निर्भर करता है। सहसंबंध अनुसंधान में सटीक और
सार्थक परिणाम सुनिश्चित करने क
े लिए सबसे उपयुक्त सहसंबंध विधि का
चयन करना महत्वपूर्ण है।
स्वतंत्रता की डिग्री (डीएफ) और पी-मूल्य (संभावना मूल्य) क
े संबंध में
सहसंबंधी मूल्यों की व्याख्या करना सहसंबंध विश्लेषण क
े परिणामों का
विश्लेषण करने का एक अनिवार्य हिस्सा है। आइए व्याख्या को चरण दर चरण
तोड़ें:
1. सहसंबंध गुणांक (आर):
- सहसंबंध गुणांक (आर) दो निरंतर चर क
े बीच रैखिक संबंध की ताकत और
दिशा को निर्धारित करता है। यह -1 (पूर्ण नकारात्मक सहसंबंध) से लेकर 1
(पूर्ण सकारात्मक सहसंबंध) तक होता है, जिसमें 0 कोई सहसंबंध नहीं दर्शाता
है।
- r का एक सकारात्मक मान एक सकारात्मक सहसंबंध को इंगित करता है
(जैसे-जैसे एक चर बढ़ता है, दूसरा बढ़ने लगता है), जबकि r का एक
नकारात्मक मान एक नकारात्मक सहसंबंध को इंगित करता है (जैसे-जैसे एक
चर बढ़ता है, दूसरा घटता जाता है)।
2. स्वतंत्रता की डिग्री (डीएफ):
- स्वतंत्रता की डिग्री (डीएफ) आंकड़ों में एक अवधारणा है जो किसी आंकड़े
की अंतिम गणना में मूल्यों की संख्या का प्रतिनिधित्व करती है जो भिन्न होने
क
े लिए स्वतंत्र हैं। सहसंबंध क
े संदर्भ में, डीएफ आम तौर पर डेटा बिंदुओं क
े
जोड़े की संख्या शून्य से 2 (डीएफ = एन - 2) को संदर्भित करता है, जहां "एन"
नमूना आकार है।
24. - परिकल्पना परीक्षण आयोजित करते समय और पी-वैल्यू की गणना करते
समय स्वतंत्रता की डिग्री महत्वपूर्ण होती है।
3. पी-वैल्यू (संभावना मूल्य):
- पी-वैल्यू इस संभावना का एक माप है कि मनाया गया सहसंबंध गुणांक
(या अधिक चरम मूल्य) अक
े ले संयोग से हुआ, यह मानते हुए कि जनसंख्या
में कोई वास्तविक सहसंबंध नहीं है।
- परिकल्पना परीक्षण में, एक छोटा पी-मूल्य शून्य परिकल्पना (यानी, यह
परिकल्पना कि जनसंख्या में कोई सहसंबंध नहीं है) क
े खिलाफ मजबूत सबूत
इंगित करता है। सांख्यिकीय महत्व निर्धारित करने क
े लिए उपयोग किए जाने
वाले सामान्य महत्व स्तर (α) में 0.05 और 0.01 शामिल हैं।
अब, आइए इन मूल्यों की एक दूसरे क
े संबंध में व्याख्या करें:
- महत्व स्तर (α): उस महत्व स्तर (α) को निर्धारित करें जिसका उपयोग आप
अपनी परिकल्पना परीक्षण क
े लिए कर रहे हैं। यह आमतौर पर विश्लेषण
करने से पहले सेट किया जाता है (उदाहरण क
े लिए, α = 0.05)।
- परिकल्पना परीक्षण:
- शून्य परिकल्पना (H0): शून्य परिकल्पना मानती है कि जनसंख्या में कोई
सहसंबंध नहीं है (अर्थात, r = 0)।
- वैकल्पिक परिकल्पना (हा): वैकल्पिक परिकल्पना से पता चलता है कि
जनसंख्या में एक महत्वपूर्ण सहसंबंध है (यानी, दो-पूंछ वाले परीक्षण क
े लिए
आर ≠ 0)।
- पी-वैल्यू की गणना:
- नमूना सहसंबंध गुणांक (आर) और स्वतंत्रता की डिग्री (डीएफ) का उपयोग
करक
े , अपने सहसंबंध से जुड़े पी-मूल्य की गणना करें।
- यदि पी-वैल्यू आपक
े चुने हुए महत्व स्तर (α) से कम या उसक
े बराबर है,
तो आप वैकल्पिक परिकल्पना (एचए) क
े पक्ष में शून्य परिकल्पना (एच0) को
25. अस्वीकार कर देते हैं। इससे पता चलता है कि जनसंख्या में महत्वपूर्ण
सहसंबंध है।
- व्याख्या:
- यदि पी ≤ α: आपक
े पास यह निष्कर्ष निकालने क
े लिए सबूत है कि दो चर
क
े बीच सांख्यिकीय रूप से महत्वपूर्ण सहसंबंध है। सहसंबंध गुणांक (आर) इस
रिश्ते की ताकत और दिशा को मापता है।
- यदि p > α: आपक
े पास यह निष्कर्ष निकालने क
े लिए पर्याप्त सबूत नहीं
है कि सांख्यिकीय रूप से महत्वपूर्ण सहसंबंध है। इस मामले में, आप शून्य
परिकल्पना को अस्वीकार करने में विफल रहते हैं।
उदाहरण क
े लिए, यदि आपने नमूना आकार क
े साथ 0.70 क
े सहसंबंध गुणांक
(आर) की गणना की है जो 18 डिग्री स्वतंत्रता (डीएफ = 18) प्राप्त करता है,
और आप अपना महत्व स्तर α = 0.05 पर निर्धारित करते हैं, और परिणामी
पी-मान पी < है 0.05, आप इसकी व्याख्या इस प्रकार करेंगे: "दो चरों क
े बीच
एक सांख्यिकीय रूप से महत्वपूर्ण सकारात्मक सहसंबंध (आर = 0.70, पी
<0.05) है।"
संक्षेप में, एक सहसंबंधी मूल्य की व्याख्या में परिकल्पना परीक्षण क
े संदर्भ में
सहसंबंध गुणांक (आर), स्वतंत्रता की डिग्री (डीएफ), और पी-मूल्य पर विचार
करना शामिल है। पी-वैल्यू आपको यह निर्धारित करने में मदद करता है कि
आपक
े द्वारा देखा गया सहसंबंध सांख्यिकीय रूप से महत्वपूर्ण है या संयोग से
घटित होने की संभावना है।