mirror of
https://github.com/shizand/statapp.git
synced 2024-12-23 04:02:58 +03:00
fix: исправлена "Остаточная дисперсия (масштабированная)" (#124)
This commit is contained in:
parent
7ad23735ce
commit
babfd48ee1
@ -25,6 +25,7 @@ import sympy as sp
|
|||||||
from sklearn.preprocessing import PolynomialFeatures
|
from sklearn.preprocessing import PolynomialFeatures
|
||||||
from sklearn.linear_model import LinearRegression
|
from sklearn.linear_model import LinearRegression
|
||||||
from sklearn.metrics import mean_squared_error
|
from sklearn.metrics import mean_squared_error
|
||||||
|
from sklearn.metrics import r2_score
|
||||||
|
|
||||||
|
|
||||||
DIRECT_LINK = 0
|
DIRECT_LINK = 0
|
||||||
@ -81,93 +82,79 @@ class RegressionResult:
|
|||||||
monomials: list
|
monomials: list
|
||||||
|
|
||||||
|
|
||||||
def linearPolynom(data):
|
def _prepareDataAndFeatures(data, degree):
|
||||||
y = data[:, 0]
|
y = data[:, 0]
|
||||||
x = data[:, 1:]
|
x = data[:, 1:]
|
||||||
|
polyFeatures = PolynomialFeatures(degree=degree, include_bias=False)
|
||||||
polyFeatures = PolynomialFeatures(degree=1, include_bias=False)
|
|
||||||
xPoly = polyFeatures.fit_transform(x)
|
xPoly = polyFeatures.fit_transform(x)
|
||||||
|
return y, x, xPoly, polyFeatures
|
||||||
|
|
||||||
|
|
||||||
|
def _trainModelAndPredict(y, xPoly):
|
||||||
model = LinearRegression(fit_intercept=True)
|
model = LinearRegression(fit_intercept=True)
|
||||||
model.fit(xPoly, y)
|
model.fit(xPoly, y)
|
||||||
|
|
||||||
params = np.hstack([model.intercept_, model.coef_])
|
|
||||||
|
|
||||||
predictions = model.predict(xPoly)
|
predictions = model.predict(xPoly)
|
||||||
residuals = y - predictions
|
return model, predictions
|
||||||
|
|
||||||
|
|
||||||
|
def _calculateStatistics(y, x, xPoly, predictions, model, polyFeatures):
|
||||||
|
# Рассчитываем Среднеквадратическую ошибку (MSE) между фактическими и прогнозируемыми значениями
|
||||||
mse = mean_squared_error(y, predictions)
|
mse = mean_squared_error(y, predictions)
|
||||||
|
# Рассчитываем коэффициент детерминации R^2, который
|
||||||
rSquared = model.score(xPoly, y)
|
# показывает долю вариации зависимой переменной, объясненную моделью
|
||||||
|
rSquared = r2_score(y, predictions)
|
||||||
|
# Определяем количество наблюдений
|
||||||
n = xPoly.shape[0]
|
n = xPoly.shape[0]
|
||||||
|
# Определяем количество предикторов (признаков) плюс один для свободного члена
|
||||||
k = xPoly.shape[1] + 1
|
k = xPoly.shape[1] + 1
|
||||||
|
# Рассчитываем F-статистику для оценки значимости всей регрессионной модели
|
||||||
fStatistic = (rSquared / (k - 1)) / ((1 - rSquared) / (n - k))
|
fStatistic = (rSquared / (k - 1)) / ((1 - rSquared) / (n - k))
|
||||||
|
# Собираем параметры модели, включая свободный член и коэффициенты перед переменными
|
||||||
xWithIntercept = np.hstack([np.ones((n, 1)), xPoly])
|
|
||||||
varB = mse * np.linalg.inv(xWithIntercept.T @ xWithIntercept).diagonal()
|
|
||||||
seB = np.sqrt(varB)
|
|
||||||
|
|
||||||
tStats = params / seB
|
|
||||||
|
|
||||||
monomials = ['c'] + ['x' + str(i) for i in range(1, x.shape[1] + 1)]
|
|
||||||
|
|
||||||
residualVariance = np.var(residuals, ddof=k)
|
|
||||||
scaledResidualVariance = residualVariance / (n - k)
|
|
||||||
|
|
||||||
paramsAndTStats = np.vstack((params, tStats)).T
|
|
||||||
|
|
||||||
return RegressionResult(
|
|
||||||
paramsAndTStats,
|
|
||||||
residualVariance,
|
|
||||||
scaledResidualVariance,
|
|
||||||
rSquared,
|
|
||||||
fStatistic,
|
|
||||||
monomials
|
|
||||||
)
|
|
||||||
|
|
||||||
|
|
||||||
def squaredPolynom(data):
|
|
||||||
y = data[:, 0]
|
|
||||||
x = data[:, 1:]
|
|
||||||
|
|
||||||
polyFeatures = PolynomialFeatures(degree=2, include_bias=False)
|
|
||||||
xPoly = polyFeatures.fit_transform(x)
|
|
||||||
|
|
||||||
model = LinearRegression(fit_intercept=True)
|
|
||||||
model.fit(xPoly, y)
|
|
||||||
|
|
||||||
params = np.hstack([model.intercept_, model.coef_])
|
params = np.hstack([model.intercept_, model.coef_])
|
||||||
|
# Вычисляем остатки модели как разницу между фактическими и прогнозируемыми значениями
|
||||||
predictions = model.predict(xPoly)
|
|
||||||
residuals = y - predictions
|
residuals = y - predictions
|
||||||
mse = mean_squared_error(y, predictions)
|
# Добавляем столбец единиц к матрице признаков для учета свободного члена в регрессионной модели
|
||||||
|
|
||||||
rSquared = model.score(xPoly, y)
|
|
||||||
|
|
||||||
n = xPoly.shape[0]
|
|
||||||
k = xPoly.shape[1] + 1
|
|
||||||
|
|
||||||
fStatistic = (rSquared / (k - 1)) / ((1 - rSquared) / (n - k))
|
|
||||||
|
|
||||||
xWithIntercept = np.hstack([np.ones((n, 1)), xPoly])
|
xWithIntercept = np.hstack([np.ones((n, 1)), xPoly])
|
||||||
|
# Рассчитываем дисперсии коэффициентов модели
|
||||||
varB = mse * np.linalg.pinv(xWithIntercept.T @ xWithIntercept).diagonal()
|
varB = mse * np.linalg.pinv(xWithIntercept.T @ xWithIntercept).diagonal()
|
||||||
|
# Вычисляем стандартные ошибки коэффициентов, берем корень из дисперсий
|
||||||
seB = np.sqrt(np.maximum(varB, 0))
|
seB = np.sqrt(np.maximum(varB, 0))
|
||||||
|
# Рассчитываем t-статистики для каждого коэффициента
|
||||||
tStats = params / seB
|
tStats = params / seB
|
||||||
|
# Рассчитываем дисперсию остатков с поправкой на количество параметров
|
||||||
|
residualVariance = np.var(residuals, ddof=k)
|
||||||
|
# Рассчитываем скорректированную дисперсию остатков
|
||||||
|
scaledResidualVariance = 1 - rSquared
|
||||||
|
# Генерируем список мономов (названий признаков после
|
||||||
|
# полиномиализации), добавляя константу для свободного члена
|
||||||
monomials = ['c'] + list(
|
monomials = ['c'] + list(
|
||||||
polyFeatures.get_feature_names_out(['x' + str(i) for i in range(1, x.shape[1] + 1)])
|
polyFeatures.get_feature_names_out(['x' + str(i) for i in range(1, x.shape[1] + 1)])
|
||||||
)
|
)
|
||||||
|
# Заменяем пробелы на звездочки для представления умножения в названиях мономов
|
||||||
monomials = [monomial.replace(' ', '*') for monomial in monomials]
|
monomials = [monomial.replace(' ', '*') for monomial in monomials]
|
||||||
|
# Возвращаем рассчитанные статистики и названия мономов
|
||||||
|
return params, tStats, residualVariance, scaledResidualVariance, rSquared, fStatistic, monomials
|
||||||
|
|
||||||
residualVariance = np.var(residuals, ddof=k)
|
|
||||||
scaledResidualVariance = residualVariance / (n - k)
|
|
||||||
|
|
||||||
paramsAndTStats = np.vstack((params, tStats)).T
|
|
||||||
|
def _regressionAnalysis(data, degree):
|
||||||
|
y, x, xPoly, polyFeatures = _prepareDataAndFeatures(
|
||||||
|
data, degree
|
||||||
|
)
|
||||||
|
model, predictions = _trainModelAndPredict(y, xPoly)
|
||||||
|
(params, tStats, residualVariance,
|
||||||
|
scaledResidualVariance, rSquared, fStatistic, monomials) = (
|
||||||
|
_calculateStatistics(
|
||||||
|
y,
|
||||||
|
x,
|
||||||
|
xPoly,
|
||||||
|
predictions,
|
||||||
|
model,
|
||||||
|
polyFeatures
|
||||||
|
))
|
||||||
|
|
||||||
return RegressionResult(
|
return RegressionResult(
|
||||||
paramsAndTStats,
|
np.vstack((params, tStats)).T,
|
||||||
residualVariance,
|
residualVariance,
|
||||||
scaledResidualVariance,
|
scaledResidualVariance,
|
||||||
rSquared,
|
rSquared,
|
||||||
@ -175,6 +162,13 @@ def squaredPolynom(data):
|
|||||||
monomials
|
monomials
|
||||||
)
|
)
|
||||||
|
|
||||||
|
def linearPolynom(data):
|
||||||
|
return _regressionAnalysis(data, 1)
|
||||||
|
|
||||||
|
|
||||||
|
def squaredPolynom(data):
|
||||||
|
return _regressionAnalysis(data, 2)
|
||||||
|
|
||||||
|
|
||||||
def prediction(inputData, result: RegressionResult):
|
def prediction(inputData, result: RegressionResult):
|
||||||
inputs = inputData[:, 1:]
|
inputs = inputData[:, 1:]
|
||||||
|
@ -116,4 +116,4 @@ class TransformPolynomWindow(QDialog):
|
|||||||
self.ui.residualVarianceValueLabel.setText(str(result.residualVariance))
|
self.ui.residualVarianceValueLabel.setText(str(result.residualVariance))
|
||||||
self.ui.scaledResidualVarianceValueLabel.setText(str(result.scaledResidualVariance))
|
self.ui.scaledResidualVarianceValueLabel.setText(str(result.scaledResidualVariance))
|
||||||
self.ui.fStatisticValueLabel.setText(str(result.fStatistic))
|
self.ui.fStatisticValueLabel.setText(str(result.fStatistic))
|
||||||
self.ui.rSquaredValueLabel.setText(str(result.scaledResidualVariance))
|
self.ui.rSquaredValueLabel.setText(str(result.rSquared))
|
||||||
|
Loading…
Reference in New Issue
Block a user