import pandas as pd import gradio as gr from gradio import components from gradio import Interface import numpy as np import statsmodels import statsmodels.api as sm from statsmodels.stats.stattools import jarque_bera import plotly.express as px import plotly.graph_objects as go import matplotlib.pyplot as plt import seaborn as sns import sklearn from sklearn.preprocessing import MinMaxScaler from sklearn.ensemble import ExtraTreesRegressor import xlsxwriter #%matplotlib inline #--------------------------------------------------FUNÇÕES ASSESSÓRIAS--------------------------------------------------------# # função para conversão da escala das variáveis: def aplicar_operacao(df, scv, col_index): if scv == 'x': pass elif scv == 'lnx': df.iloc[:, col_index] = round(np.log(df.iloc[:, col_index]), 8) elif scv == '1/x': df.iloc[:, col_index] = round(1 / df.iloc[:, col_index], 8) elif scv == 'x²': df.iloc[:, col_index] = round(df.iloc[:, col_index] ** 2, 8) elif scv == 'y': pass elif scv == 'lny': df.iloc[:, col_index] = round(np.log(df.iloc[:, col_index]), 8) elif scv == '1/y': df.iloc[:, col_index] = round(1 / df.iloc[:, col_index], 8) elif scv == 'y²': df.iloc[:, col_index] = round(df.iloc[:, col_index] ** 2, 8) # função para renomear as colunas com as escalas: def renomeia_colunas(df_dados, posicao_coluna, scv): if posicao_coluna < len(df_dados.columns): old_column_name = df_dados.columns[posicao_coluna] new_column_name = old_column_name # Inicializa com o mesmo nome da coluna original if scv == 'x': pass elif scv == 'lnx': new_column_name = 'ln(' + old_column_name + ')' elif scv == '1/x': new_column_name = '1/(' + old_column_name + ')' elif scv == 'x²': new_column_name = '(' + old_column_name + ')²' if scv == 'y': pass elif scv == 'lny': new_column_name = 'ln(' + old_column_name + ')' elif scv == '1/y': new_column_name = '1/(' + old_column_name + ')' elif scv == 'y²': new_column_name = '(' + old_column_name + ')²' df_dados.rename(columns={old_column_name: new_column_name}, inplace=True) # função para plotagem dos gráficos de dispersão: def criar_grafico_dispersao(df, x_column, y_column, hover_name, trendline_color): # Calculando a correlação entre as variáveis x e y correlacao = df[x_column].corr(df[y_column]) # Criando o gráfico de dispersão com a linha de tendência fig = px.scatter(df, x=x_column, y=y_column, hover_name=hover_name, trendline="ols", height=300) # Definindo a cor de fundo e do papel fig.update_layout( plot_bgcolor='rgb(240, 240, 240)', paper_bgcolor='rgb(240, 240, 240)', ) # Definindo a cor dos pontos fig.update_traces(marker=dict(color=trendline_color, size=5)) # Definindo a cor da linha de tendência fig.update_traces(line=dict(color="black")) # Adicionando o texto com a correlação na linha de tendência fig.add_annotation( x=df[x_column].max(), y=df[y_column].max(), text=f"Correlação: {correlacao:.2f}", showarrow=False, font=dict(color="black") ) return fig #--------------------------------------------FUNÇÃO PRINCIPAL DE GERAÇÃO DE MODELOS--------------------------------------------# # função para a regressão linear def gera_model(planilha, name_model, v_d, scv_d, v_1, scv_1, v_2, scv_2, v_3, scv_3, v_4, scv_4, v_5, scv_5, v_6, scv_6, v_7, scv_7, v_8, scv_8, v_9, scv_9, v_10, scv_10, v_11, scv_11, v_12, scv_12, v_13, scv_13, v_14, scv_14, v_15, scv_15, v_16, scv_16, out): # ---------------------------------Planilha------------------------------# # Carregando os dados df_dados = pd.read_excel(planilha.name) df_dados = df_dados.round(4) # Convertendo os cabeçalhos para strings df_dados.columns = [str(col) for col in df_dados.columns] df_dados[df_dados.columns[1]] = df_dados[df_dados.columns[1]].astype(float) df_dados[df_dados.columns[2]] = df_dados[df_dados.columns[2]].astype(float) df_original = df_dados.copy() # Dataframe para criação de uma planilha de modelo para avaliação df_avalia = pd.DataFrame() # Iterar sobre as colunas do DataFrame df_filtrado for i, col in enumerate(df_dados.columns): # Verificar se a coluna atual deve ser adicionada com base na condição e se ela existe no DataFrame if (i == 3 and v_1) or \ (i == 4 and v_2) or \ (i == 5 and v_3) or \ (i == 6 and v_4) or \ (i == 7 and v_5) or \ (i == 8 and v_6) or \ (i == 9 and v_7) or \ (i == 10 and v_8) or \ (i == 11 and v_9) or \ (i == 12 and v_10) or \ (i == 13 and v_11) or \ (i == 14 and v_12) or \ (i == 15 and v_13) or \ (i == 16 and v_14) or \ (i == 17 and v_15) or \ (i == 18 and v_16): if i < len(df_dados.columns): df_avalia[col] = df_dados.iloc[:, i] # Adicionar a coluna de índice 0 de df_dados em df_avalia df_limites_var = df_avalia df_limites_var[df_dados.columns[0]] = df_dados.iloc[:, 0] # ---------------------------Nome das variáveis--------------------------# # Obtenha os nomes das colunas, excluindo a primeira ou a segunda if v_d == "Valor total": nomes_colunas = df_original.drop(columns=[df_original.columns[0], df_original.columns[2]]).columns else: nomes_colunas = df_original.drop(columns=[df_original.columns[0], df_original.columns[1]]).columns # Crie a lista de strings com os cabeçalhos formatados colunas = [f'Var dependente = {nomes_colunas[0]}'] + [f'Var {i} = {coluna}' for i, coluna in enumerate(nomes_colunas[1:], start=1)] # Transformando a lista em uma string separada por vírgula string_colunas = ", ".join(colunas) #-----------------------------------Escalas------------------------------# # dados if v_d == "Valor total": aplicar_operacao(df_dados, scv_d, 1) else: aplicar_operacao(df_dados, scv_d, 2) aplicar_operacao(df_dados, scv_1, 3) aplicar_operacao(df_dados, scv_2, 4) aplicar_operacao(df_dados, scv_3, 5) aplicar_operacao(df_dados, scv_4, 6) aplicar_operacao(df_dados, scv_5, 7) aplicar_operacao(df_dados, scv_6, 8) aplicar_operacao(df_dados, scv_7, 9) aplicar_operacao(df_dados, scv_8, 10) aplicar_operacao(df_dados, scv_9, 11) aplicar_operacao(df_dados, scv_10, 12) aplicar_operacao(df_dados, scv_11, 13) aplicar_operacao(df_dados, scv_12, 14) aplicar_operacao(df_dados, scv_13, 15) aplicar_operacao(df_dados, scv_14, 16) aplicar_operacao(df_dados, scv_15, 17) aplicar_operacao(df_dados, scv_16, 18) #----------------------------Renomear colunas----------------------------# #dados if v_d == "Valor total": renomeia_colunas(df_dados, 1, scv_d) else: renomeia_colunas(df_dados, 2, scv_d) renomeia_colunas(df_dados, 3, scv_1) renomeia_colunas(df_dados, 4, scv_2) renomeia_colunas(df_dados, 5, scv_3) renomeia_colunas(df_dados, 6, scv_4) renomeia_colunas(df_dados, 7, scv_5) renomeia_colunas(df_dados, 8, scv_6) renomeia_colunas(df_dados, 9, scv_7) renomeia_colunas(df_dados, 10, scv_8) renomeia_colunas(df_dados, 11, scv_9) renomeia_colunas(df_dados, 12, scv_10) renomeia_colunas(df_dados, 13, scv_11) renomeia_colunas(df_dados, 14, scv_12) renomeia_colunas(df_dados, 15, scv_13) renomeia_colunas(df_dados, 16, scv_14) renomeia_colunas(df_dados, 17, scv_15) renomeia_colunas(df_dados, 18, scv_16) #----------------Manipulação das linhas (dados / outiliers)----------------# # Convertendo a entrada em uma lista de inteiros dados_out = [int(num.strip()) for num in out.split(",") if num.strip()] # Filtrando o DataFrame para obter os outliers df_outliers = df_dados[df_dados.iloc[:, 0].isin(dados_out)] # Removendo os outliers do DataFrame df_limites_var para calcular os valores mínimos e máximos de cada variável df_limites_var = df_limites_var[~df_limites_var.iloc[:, 0].isin(dados_out)] # Selecionar colunas excluindo a primeira coluna (índice 0) limites = df_limites_var.columns[1:] # Calcular o valor mínimo e máximo para cada coluna selecionada minimos = df_limites_var[limites].min() maximos = df_limites_var[limites].max() # Criar o DataFrame df_limites_var com os valores mínimos e máximos df_limites_var = pd.DataFrame({'Min': minimos, 'Max': maximos}) # Se desejar transpor para que as colunas sejam 'Min' e 'Max', e os índices sejam as colunas originais do df_dados df_limites_var = df_limites_var.transpose() # Removendo os outliers do DataFrame original df_filtrado = df_dados[~df_dados.iloc[:, 0].isin(dados_out)] # Resetando o índice de ambos os DataFrames df_filtrado.reset_index(drop=True, inplace=True) df_outliers.reset_index(drop=True, inplace=True) # Contagem de linhas no DataFrame resultante num_outliers = df_outliers.shape[0] #----------------Manipulação das Colunas (variáveis)-----------------------# # Variáveis independentes X = pd.DataFrame() # Iterar sobre as colunas do DataFrame df_filtrado for i, col in enumerate(df_filtrado.columns): # Verificar se a coluna atual deve ser adicionada com base na condição e se ela existe no DataFrame if (i == 3 and v_1) or \ (i == 4 and v_2) or \ (i == 5 and v_3) or \ (i == 6 and v_4) or \ (i == 7 and v_5) or \ (i == 8 and v_6) or \ (i == 9 and v_7) or \ (i == 10 and v_8) or \ (i == 11 and v_9) or \ (i == 12 and v_10) or \ (i == 13 and v_11) or \ (i == 14 and v_12) or \ (i == 15 and v_13) or \ (i == 16 and v_14) or \ (i == 17 and v_15) or \ (i == 18 and v_16): if i < len(df_filtrado.columns): X[col] = df_filtrado.iloc[:, i] #X.to_excel("X.xlsx", index=False) ---> Linha de verificação #---------------------------Gráficos de dispersão--------------------------# df_filtrado.to_excel("df_filtrado.xlsx", index=False) # isso pode ser retirado! fig_v1 = None fig_v2 = None fig_v3 = None fig_v4 = None fig_v5 = None fig_v6 = None fig_v7 = None fig_v8 = None fig_v9 = None fig_v10 = None fig_v11 = None fig_v12 = None fig_v13 = None fig_v14 = None fig_v15 = None fig_v16 = None if v_1: if v_d == "Valor total": fig_v1 = criar_grafico_dispersao(df_filtrado, df_filtrado.columns[3], df_filtrado.columns[1], df_filtrado.columns[0], "orange") else: fig_v1 = criar_grafico_dispersao(df_filtrado, df_filtrado.columns[3], df_filtrado.columns[2], df_filtrado.columns[0], "orange") if v_2: if v_d == "Valor total": fig_v2 = criar_grafico_dispersao(df_filtrado, df_filtrado.columns[4], df_filtrado.columns[1], df_filtrado.columns[0], "orange") else: fig_v2 = criar_grafico_dispersao(df_filtrado, df_filtrado.columns[4], df_filtrado.columns[2], df_filtrado.columns[0], "orange") if v_3: if v_d == "Valor total": fig_v3 = criar_grafico_dispersao(df_filtrado, df_filtrado.columns[5], df_filtrado.columns[1], df_filtrado.columns[0], "orange") else: fig_v3 = criar_grafico_dispersao(df_filtrado, df_filtrado.columns[5], df_filtrado.columns[2], df_filtrado.columns[0], "orange") if v_4: if v_d == "Valor total": fig_v4 = criar_grafico_dispersao(df_filtrado, df_filtrado.columns[6], df_filtrado.columns[1], df_filtrado.columns[0], "orange") else: fig_v4 = criar_grafico_dispersao(df_filtrado, df_filtrado.columns[6], df_filtrado.columns[2], df_filtrado.columns[0], "orange") if v_5: if v_d == "Valor total": fig_v5 = criar_grafico_dispersao(df_filtrado, df_filtrado.columns[7], df_filtrado.columns[1], df_filtrado.columns[0], "orange") else: fig_v5 = criar_grafico_dispersao(df_filtrado, df_filtrado.columns[7], df_filtrado.columns[2], df_filtrado.columns[0], "orange") if v_6: if v_d == "Valor total": fig_v6 = criar_grafico_dispersao(df_filtrado, df_filtrado.columns[8], df_filtrado.columns[1], df_filtrado.columns[0], "orange") else: fig_v6 = criar_grafico_dispersao(df_filtrado, df_filtrado.columns[8], df_filtrado.columns[2], df_filtrado.columns[0], "orange") if v_7: if v_d == "Valor total": fig_v7 = criar_grafico_dispersao(df_filtrado, df_filtrado.columns[9], df_filtrado.columns[1], df_filtrado.columns[0], "orange") else: fig_v7 = criar_grafico_dispersao(df_filtrado, df_filtrado.columns[9], df_filtrado.columns[2], df_filtrado.columns[0], "orange") if v_8: if v_d == "Valor total": fig_v8 = criar_grafico_dispersao(df_filtrado, df_filtrado.columns[10], df_filtrado.columns[1], df_filtrado.columns[0], "orange") else: fig_v8 = criar_grafico_dispersao(df_filtrado, df_filtrado.columns[10], df_filtrado.columns[2], df_filtrado.columns[0], "orange") if v_9: if v_d == "Valor total": fig_v9 = criar_grafico_dispersao(df_filtrado, df_filtrado.columns[11], df_filtrado.columns[1], df_filtrado.columns[0], "orange") else: fig_v9 = criar_grafico_dispersao(df_filtrado, df_filtrado.columns[11], df_filtrado.columns[2], df_filtrado.columns[0], "orange") if v_10: if v_d == "Valor total": fig_v10 = criar_grafico_dispersao(df_filtrado, df_filtrado.columns[12], df_filtrado.columns[1], df_filtrado.columns[0], "orange") else: fig_v10 = criar_grafico_dispersao(df_filtrado, df_filtrado.columns[12], df_filtrado.columns[2], df_filtrado.columns[0], "orange") if v_11: if v_d == "Valor total": fig_v11 = criar_grafico_dispersao(df_filtrado, df_filtrado.columns[13], df_filtrado.columns[1], df_filtrado.columns[0], "orange") else: fig_v11 = criar_grafico_dispersao(df_filtrado, df_filtrado.columns[13], df_filtrado.columns[2], df_filtrado.columns[0], "orange") if v_12: if v_d == "Valor total": fig_v12 = criar_grafico_dispersao(df_filtrado, df_filtrado.columns[14], df_filtrado.columns[1], df_filtrado.columns[0], "orange") else: fig_v12 = criar_grafico_dispersao(df_filtrado, df_filtrado.columns[14], df_filtrado.columns[2], df_filtrado.columns[0], "orange") if v_13: if v_d == "Valor total": fig_v13 = criar_grafico_dispersao(df_filtrado, df_filtrado.columns[15], df_filtrado.columns[1], df_filtrado.columns[0], "orange") else: fig_v13 = criar_grafico_dispersao(df_filtrado, df_filtrado.columns[15], df_filtrado.columns[2], df_filtrado.columns[0], "orange") if v_14: if v_d == "Valor total": fig_v14 = criar_grafico_dispersao(df_filtrado, df_filtrado.columns[16], df_filtrado.columns[1], df_filtrado.columns[0], "orange") else: fig_v14 = criar_grafico_dispersao(df_filtrado, df_filtrado.columns[16], df_filtrado.columns[2], df_filtrado.columns[0], "orange") if v_15: if v_d == "Valor total": fig_v15 = criar_grafico_dispersao(df_filtrado, df_filtrado.columns[17], df_filtrado.columns[1], df_filtrado.columns[0], "orange") else: fig_v15 = criar_grafico_dispersao(df_filtrado, df_filtrado.columns[17], df_filtrado.columns[2], df_filtrado.columns[0], "orange") if v_16: if v_d == "Valor total": fig_v16 = criar_grafico_dispersao(df_filtrado, df_filtrado.columns[18], df_filtrado.columns[1], df_filtrado.columns[0], "orange") else: fig_v16 = criar_grafico_dispersao(df_filtrado, df_filtrado.columns[18], df_filtrado.columns[2], df_filtrado.columns[0], "orange") #--------------------------Regressão Linerar------------------------------# # Variável dependente if v_d == "Valor total": y = df_filtrado.iloc[:, 1:2] else: y = df_filtrado.iloc[:, 2:3] #y.to_excel("y.xlsx", index=False) ---> Linha de verificação #---------------------ExtraTreesRegressor--------------------# scaler_x = MinMaxScaler() scaler_y = MinMaxScaler() input_scaler = scaler_x.fit(X) output_scaler = scaler_y.fit(y) x_norm = input_scaler.transform(X) y_norm = output_scaler.transform(np.array(y).reshape(-1, 1)) x_norm = pd.DataFrame(x_norm, columns=X.columns) new_y = np.ravel(y_norm) model = ExtraTreesRegressor() model.fit(x_norm,new_y) # Criando o gráfico de influência das variáveis feat_importances = pd.Series(model.feature_importances_, index=X.columns) #----------------------------Modelo----------------------------# # Adicionando uma constante às variáveis independentes (intercepto) X = sm.add_constant(X) # Inicializando o modelo de regressão linear modelo = sm.OLS(y, X) # Ajustando o modelo aos dados resultado = modelo.fit() # Calculando os resíduos do modelo residuos = resultado.resid # Calculando Desvio Padrão dos Resíduos #desvio_padrao_residuos = round(np.std(resultado.resid), 8) desvio_padrao_residuos = round(np.std(residuos), 8) # Calculando o erro padronizado erro_padronizado = round(residuos / desvio_padrao_residuos, 5) # Calculando Estatística F estatistica_F = round(resultado.fvalue, 8) # Obtendo Nível de Significância do Modelo nivel_significancia = round(resultado.f_pvalue, 8) # Calculando R² r_squared = round(resultado.rsquared, 8) # Calculando R² ajustado r_squared_adjusted = round(resultado.rsquared_adj, 8) # Obtendo Número de Observações num_observacoes = int(round(resultado.nobs, 0)) # Calculando Coeficiente de Correlação coef_correlacao = round(np.sqrt(r_squared), 8) # Comparação com a curva normal de resíduos intervalos = [(-1.00, 1.00), (-1.64, 1.64), (-1.96, 1.96)] # Inicializando a lista para armazenar os percentuais percentuais = [] # Contando o número de resíduos dentro de cada intervalo for intervalo in intervalos: min_intervalo, max_intervalo = intervalo count = np.sum((erro_padronizado >= min_intervalo) & (erro_padronizado <= max_intervalo)) percentual = round(count / len(erro_padronizado) * 100, 0) percentuais.append(f"{percentual:.0f}%") # Criando a string de saída perc_resid = ", ".join(percentuais) # Teste Kolmogorov-Smirnov (KS) ks_test = sm.stats.diagnostic.kstest_normal(residuos) ks_test_formatted = tuple(round(val, 4) for val in ks_test) # Calculando o teste de Jarque-Bera para os resíduos jarque_bera_test, p_value, skewness, kurtosis = jarque_bera(residuos) # Formatando os resultados com 4 casas decimais jarque_bera_test = round(jarque_bera_test, 8) p_value = round(p_value, 8) skewness = round(skewness, 8) kurtosis = round(kurtosis, 8) # Extrair os coeficientes da regressão coeficientes = resultado.params # Calcular a distância de Cook distancia_cook = resultado.get_influence().cooks_distance[0] # String com os resultados resultados_gerais = f""" Desvio Padrão: {desvio_padrao_residuos} Estatística F: {estatistica_F} Nível de Significância do Modelo: {nivel_significancia} R²: {r_squared} R² ajustado: {r_squared_adjusted} Correlação: {coef_correlacao} Número de observações: {num_observacoes} Número de dados não utilizados: {num_outliers} Testes de normalidade: 1) Comparação (curva normal): Ideal 68% - aceitável de 64% a 75% Ideal 90% - aceitável de 88% a 95% Ideal 95% - aceitável de 95% a 100% Percentuais atingidos: {perc_resid} 2) Teste Kolmogorov-Smirnov (KS) - Distribuição dos resíduos: {ks_test} 3) Teste de Jarque-Bera: - Estatística do teste: {jarque_bera_test} - Valor-p: {p_value} - Assimetria (Skewness): {skewness} - Curtose (Kurtosis): {kurtosis} """ # Equação do modelo if v_d == "Valor total": equacao_modelo = df_filtrado.columns[1] + '=' else: equacao_modelo = df_filtrado.columns[2] + '=' # Iterar sobre os coeficientes estimados for nome_coluna, coeficiente in zip(X.columns, coeficientes): # Se o nome da coluna for 'const', adicione apenas o coeficiente if nome_coluna == 'const': equacao_modelo += f" {coeficiente:.8f} +" else: # Adicionar o termo à equação do modelo equacao_modelo += f" {coeficiente:.8f} * {nome_coluna} +" # Remover o último sinal de adição equacao_modelo = equacao_modelo[:-1] # Exibindo estatísticas do modelo resultado_summary = resultado.summary() resultado_html = resultado.summary().tables[1].as_html() #----------------------------df_final (regressão)----------------------------# # Adicionando a primeira coluna de df_filtrado ao início de df_final ordem = df_filtrado[[df_filtrado.columns[0]]].copy() df_final = pd.concat([ordem, y, X], axis=1) # Exporta modelo df_exporta_modelo = df_final.copy() df_final = df_final.drop(columns=['const']) # Matriz de correlações # Calculando correlações correlation_matrix = df_final.corr() # Removendo a primeira coluna, assumindo que seja a primeira correlation_matrix = correlation_matrix.iloc[1:, 1:] #--------------------df_final (adiciona o erro_padronizado)------------------# # Adicionando a coluna de erro padronizado ao df_final df_final['Erro Padronizado'] = erro_padronizado #-------------------df_maiores_que_2 (possíveis outliers)--------------------# # Criar DataFrame apenas com os dados cujo erro padronizado é maior que 2 df_maiores_que_2 = df_final[abs(df_final['Erro Padronizado']) > 2] df_maiores_que_2['Erro Abs'] = abs(df_maiores_que_2['Erro Padronizado']) # Listagem de pontos com resíduos > 2 Listagem_df_maiores_que_2 = ", ".join(map(str, df_maiores_que_2.iloc[:, 0].tolist())) #------------df_correl (Valores Ajustados x Preços Observados)---------------# # Obtendo os valores previstos # Dados valores_previstos = resultado.predict(X) # Adicionando os valores previstos como uma nova coluna ao df_final df_final['Valores Ajustados'] = round(valores_previstos, 8) # Criando uma dataframe para os Valores Ajustados x Preços Observados if v_d == "Valor total": df_correl = df_final[[df_filtrado.columns[0], df_filtrado.columns[1], 'Valores Ajustados']] df_correl = df_correl.rename(columns={df_filtrado.columns[1]: 'Preços Observados'}) else: df_correl = df_final[[df_filtrado.columns[0], df_filtrado.columns[2], 'Valores Ajustados']] df_correl = df_correl.rename(columns={df_filtrado.columns[2]: 'Preços Observados'}) df_correl_grafico = df_correl.copy() # Desfazendo a conversão da escala if scv_d == 'lny': df_correl['Valores Ajustados'] = round(np.exp(df_correl['Valores Ajustados']), 8) df_correl['Preços Observados'] = round(np.exp(df_correl['Preços Observados']), 8) elif scv_d == '1/y': df_correl['Valores Ajustados'] = round(1 / df_correl['Valores Ajustados'], 8) df_correl['Preços Observados'] = round(1 / df_correl['Preços Observados'], 8) elif scv_d == 'y²': df_correl['Valores Ajustados'] = round(np.sqrt(df_correl['Valores Ajustados']), 8) df_correl['Preços Observados'] = round(np.sqrt(df_correl['Preços Observados']), 8) else: pass # Nenhuma transformação é necessária df_correl['Diferença %'] = round(((df_correl['Valores Ajustados']/df_correl['Preços Observados'])-1)*100, 8) #-------------------------------Modelo para EXCEL---------------------------# output_file = 'modelo.xlsx' output_file = output_file.replace('modelo', name_model) with pd.ExcelWriter(output_file, engine='xlsxwriter') as writer: # Salve o DataFrame 'DADOS INICIAIS' na planilha 'relatório' df_original.to_excel(writer, sheet_name='Dados Originais', index=False) # Salve o DataFrame 'DADOS NÃO UTILIZADOS' na planilha 'relatório' df_outliers.to_excel(writer, sheet_name='Dados Não utilizados', index=False) # Salve o DataFrame 'PLANILHA OBS X CALC' na planilha 'relatório' df_correl.to_excel(writer, sheet_name='Obs x Calc', index=False) # String com os resultados resultados = pd.DataFrame({ 'Desvio Padrão': [desvio_padrao_residuos], 'Estatística F': [estatistica_F], 'Nível de Significância do Modelo': [nivel_significancia], 'R²': [r_squared], 'R² ajustado': [r_squared_adjusted], 'Correlação': [coef_correlacao], 'Número de observações': [num_observacoes], 'Número de dados não utilizados': [num_outliers], '- Estatística Jarque-Bera': [jarque_bera_test], '- Valor-p': [p_value], '- Assimetria (Skewness)': [skewness], '- Curtose (Kurtosis)': [kurtosis], }) # Transponha o DataFrame resultados = resultados.T.reset_index() # Defina os nomes das colunas do novo DataFrame resultados.columns = ['Nome da Coluna', 'Valor'] resultados.to_excel(writer, sheet_name='Resultados', index=False) # Salve o DataFrame 'DADOS PARA REGRESSÃO' na planilha 'relatório' df_exporta_modelo.to_excel(writer, sheet_name='Model', index=False) # Salve o DataFrame 'PLANILHA MODELO PARA AVALIAÇÃO' na planilha 'relatório' df_avalia.to_excel(writer, sheet_name='avaliando', index=False) #----------------------------------Avaliação--------------------------------# try: # Carregando o(s) avaliando(s) df_aval = pd.read_excel(planilha.name, 'avaliando') #df_aval_original = df_aval.copy() # avaliando(s) df_aval_final = df_aval.copy() df_aval_original = pd.DataFrame() # Para criar um dataframe final sem as escalas convertidas e apenas com as variáveis escolhidas for i, col in enumerate(df_aval_final.columns): # Verificar se a coluna atual deve ser adicionada com base na condição e se ela existe no DataFrame if (i == 0 and v_1) or \ (i == 1 and v_2) or \ (i == 2 and v_3) or \ (i == 3 and v_4) or \ (i == 4 and v_5) or \ (i == 5 and v_6) or \ (i == 6 and v_7) or \ (i == 7 and v_8) or \ (i == 8 and v_9) or \ (i == 9 and v_10) or \ (i == 10 and v_11) or \ (i == 11 and v_12) or \ (i == 12 and v_13) or \ (i == 13 and v_14) or \ (i == 14 and v_15) or \ (i == 15 and v_16): if i < len(df_aval_final.columns): df_aval_original[col] = df_aval_final.iloc[:, i] # alterar escalas (para rodar o modelo) aplicar_operacao(df_aval, scv_1, 0) aplicar_operacao(df_aval, scv_2, 1) aplicar_operacao(df_aval, scv_3, 2) aplicar_operacao(df_aval, scv_4, 3) aplicar_operacao(df_aval, scv_5, 4) aplicar_operacao(df_aval, scv_6, 5) aplicar_operacao(df_aval, scv_7, 6) aplicar_operacao(df_aval, scv_8, 7) aplicar_operacao(df_aval, scv_9, 8) aplicar_operacao(df_aval, scv_10, 9) aplicar_operacao(df_aval, scv_11, 10) aplicar_operacao(df_aval, scv_12, 11) aplicar_operacao(df_aval, scv_13, 12) aplicar_operacao(df_aval, scv_14, 13) aplicar_operacao(df_aval, scv_15, 14) aplicar_operacao(df_aval, scv_16, 15) # Criando um dataframe apenas com as variáveis escolhidas e com as escalas convertidas. X_aval = pd.DataFrame() # Iterar sobre as colunas do DataFrame para fazer a predição de valor for i, col in enumerate(df_aval.columns): # Verificar se a coluna atual deve ser adicionada com base na condição e se ela existe no DataFrame if (i == 0 and v_1) or \ (i == 1 and v_2) or \ (i == 2 and v_3) or \ (i == 3 and v_4) or \ (i == 4 and v_5) or \ (i == 5 and v_6) or \ (i == 6 and v_7) or \ (i == 7 and v_8) or \ (i == 8 and v_9) or \ (i == 9 and v_10) or \ (i == 10 and v_11) or \ (i == 11 and v_12) or \ (i == 12 and v_13) or \ (i == 13 and v_14) or \ (i == 14 and v_15) or \ (i == 15 and v_16): if i < len(df_aval.columns): X_aval[col] = df_aval.iloc[:, i] X_aval.insert(0, 'const', 1) # Avaliando(s) valores_previstos_aval = resultado.predict(X_aval) df_aval_original['VALOR'] = round(valores_previstos_aval, 8) if scv_d == 'lny': df_aval_original['VALOR'] = round(np.exp(df_aval_original['VALOR']), 8) elif scv_d == '1/y': df_aval_original['VALOR'] = round(1 / df_aval_original['VALOR'], 8) elif scv_d == 'y²': df_aval_original['VALOR'] = round(np.sqrt(df_aval_original['VALOR']), 8) else: pass # Nenhuma transformação é necessária # Campo de arbítrio df_aval_original['LI_CA'] = round((df_aval_original['VALOR']*0.85), 2) df_aval_original['LS_CA'] = round((df_aval_original['VALOR']*1.15), 2) # Intervalo de Confiança de 80% # Calcular os intervalos de confiança para a média prevista intervalo_confianca = resultado.get_prediction(X_aval).summary_frame(alpha=0.2) # Extrair os limites inferior e superior do intervalo de confiança limite_inferior = intervalo_confianca['mean_ci_lower'] limite_superior = intervalo_confianca['mean_ci_upper'] # Adicionar as colunas ao DataFrame df_aval_original df_aval_original['LI_IC'] = limite_inferior.values df_aval_original['LS_IC'] = limite_superior.values if scv_d == 'lny': df_aval_original['LI_IC'] = round(np.exp(df_aval_original['LI_IC']), 2) df_aval_original['LS_IC'] = round(np.exp(df_aval_original['LS_IC']), 2) elif scv_d == '1/y': df_aval_original['LI_IC'] = round(1 / df_aval_original['LI_IC'], 2) df_aval_original['LS_IC'] = round(1 / df_aval_original['LS_IC'], 2) elif scv_d == 'y²': df_aval_original['LI_IC'] = round(np.sqrt(df_aval_original['LI_IC']), 2) df_aval_original['LS_IC'] = round(np.sqrt(df_aval_original['LS_IC']), 2) else: pass # Nenhuma transformação é necessária df_aval_original['LI_IC_%'] = round(((df_aval_original['VALOR']-df_aval_original['LI_IC'])/df_aval_original['VALOR'])*100, 2) df_aval_original['LS_IC_%'] = round(((df_aval_original['LS_IC']-df_aval_original['VALOR'])/df_aval_original['VALOR'])*100, 2) df_aval_original['TOTAL_IC_%'] = round(df_aval_original['LI_IC_%'] + df_aval_original['LS_IC_%'], 2) # Aplicação das condições para determinar 'PRECISÃO' df_aval_original['PRECISÃO'] = "" # Inicializa a coluna 'PRECISÃO' df_aval_original.loc[df_aval_original['TOTAL_IC_%'] <= 30, 'PRECISÃO'] = "Grau III" df_aval_original.loc[(df_aval_original['TOTAL_IC_%'] > 30) & (df_aval_original['TOTAL_IC_%'] <= 40), 'PRECISÃO'] = "Grau II" df_aval_original.loc[(df_aval_original['TOTAL_IC_%'] > 40) & (df_aval_original['TOTAL_IC_%'] <= 50), 'PRECISÃO'] = "Grau I" df_aval_original.loc[df_aval_original['TOTAL_IC_%'] > 50, 'PRECISÃO'] = "Fora dos critérios" # Retirando as colunas valor total e valor unitário #df_aval_original = df_aval_original.drop(df_aval_original.columns[[1, 2]], axis=1) # Salve o DataFrame 'result' em uma planilha df_aval_original.to_excel("planilha_aval.xlsx", index=False) except: # Se a aba não existir, crie um DataFrame vazio df_aval_original = pd.DataFrame() # Salve o DataFrame em uma planilha df_aval_original.to_excel("planilha_aval.xlsx", index=False) #-----------------------------------------------Gráficos-------------------------------------------------# # Criando subplots fig, (ax1, ax2, ax3, ax4, ax5, ax6) = plt.subplots(6, 1, figsize=(15, 40)) # Gráfico dos resíduos padronizados ax1.scatter(df_final['Valores Ajustados'], erro_padronizado, color='orange', alpha=0.6) ax1.axhline(y=0, color='black', linestyle='--', linewidth=1) # Linha zero ax1.axhline(y=2, color='red', linestyle='-', linewidth=1) # Linhas vermelhas em ±2 ax1.axhline(y=-2, color='red', linestyle='-', linewidth=1) ax1.set_title('Gráfico de Resíduos Padronizados') ax1.set_xlabel('Valores Ajustados') ax1.set_ylabel('Resíduos Padronizados') ax1.grid(True) # Adicionando rótulos aos pontos com resíduos padronizados > 2 for i, txt in enumerate(df_final.iloc[:, 0]): if abs(erro_padronizado[i]) > 2: ax1.annotate(txt, (df_final['Valores Ajustados'][i], erro_padronizado[i]), xytext=(5,5), textcoords='offset points', fontsize=20, color='darkred') # Histograma dos resíduos padronizados sns.histplot(erro_padronizado, kde=True, color='orange', alpha=0.6, ax=ax2) ax2.set_title('Histograma dos Resíduos Padronizados') ax2.set_xlabel('Resíduos Padronizados') ax2.set_ylabel('Frequência') ax2.grid(True) # Gráfico da distância de Cook ax3.plot(distancia_cook, marker='o', linestyle='None', color='orange') ax3.axhline(y=1, color='red', linestyle='--', linewidth=1) ax3.set_title('Gráfico da Distância de Cook') ax3.set_xlabel('Número da Observação') ax3.set_ylabel('Distância de Cook') ax3.grid(True) # Gráfico Valores Ajustados vs Preços Observados # Extrair os valores dos dados x_values = df_correl_grafico['Preços Observados'] y_values = df_correl_grafico['Valores Ajustados'] # Calcular a linha de tendência (regressão linear) slope, intercept = np.polyfit(x_values, y_values, 1) # Plotar o gráfico de dispersão no eixo ax4 ax4.scatter(x_values, y_values, color='black') # Plotar a linha de tendência no eixo ax4 ax4.plot(x_values, slope * x_values + intercept, color='orange', linestyle='--', linewidth=2) # Adicionar título e rótulos dos eixos em ax4 ax4.set_title('Valores Ajustados vs Preços Observados') ax4.set_xlabel('Preços Observados') ax4.set_ylabel('Valores Ajustados') ax4.grid(True) # Criando o gráfico de influência das variáveis feat_importances.nlargest(16).plot(kind='barh', color='orange', ax=ax5) ax5.set_title('Influência das Variáveis') ax5.set_xlabel('Importância') ax5.set_ylabel('Variáveis') ax5.grid(True) # Plotando o gráfico de correlações ax6.set_title('Matriz de Correlação') # Definindo uma paleta de cores laranjas palette = sns.light_palette("orange", as_cmap=True) # Plotando o gráfico de correlações com a paleta de cores laranjas sns.heatmap(correlation_matrix, annot=True, cmap=palette, linewidths=0.5, ax=ax6, annot_kws={"size": 12}) # Ajustando a posição dos subplots plt.tight_layout() # Exibindo os subplots plt.show() #----------------------------------------------Pontos Influenciantes-------------------------------------------------# # Listagem de pontos discrepantes #limite_cook = 4 / (len(df_final) - len(resultado.params)) #pontos_discrepantes = [] #for i, cook_dist in enumerate(distancia_cook): #if cook_dist > limite_cook: #pontos_discrepantes.append(df_final.iloc[i, 0]) # Usando a primeira coluna como rótulo # Listagem de pontos influentes limite_cook = 1 pontos_influentes = [] for i, cook_dist in enumerate(distancia_cook): if cook_dist > limite_cook: pontos_influentes.append(df_final.iloc[i, 0]) # Usando a primeira coluna como rótulo # Transformando a lista em uma string separada por vírgula string_pontos_influentes = ", ".join(map(str, pontos_influentes)) #---------------------------------------Outputs----------------------------------# return ( df_original, string_colunas, resultados_gerais, equacao_modelo, resultado_html, df_final, Listagem_df_maiores_que_2, string_pontos_influentes, df_maiores_que_2, df_outliers, df_correl, df_limites_var, fig_v1, fig_v2, fig_v3, fig_v4, fig_v5, fig_v6, fig_v7, fig_v8, fig_v9, fig_v10, fig_v11, fig_v12, fig_v13, fig_v14, fig_v15, fig_v16, plt, df_aval_original, 'planilha_aval.xlsx', output_file, 'df_filtrado.xlsx', #X_aval, #X, #y, #'X.xlsx', #'y.xlsx', ) #-----------------------------------------FUNÇÃO PRINCIPAL DE CARREGAMENTO DE MODELOS-----------------------------------------# # função para a regressão linear def carrega_model(planilha): #----------------------------Carregando modelo--------------------------------# df_model = pd.read_excel(planilha.name, 'Model') y = df_model.iloc[:, 1:2] # Para converter os valores calculados posteriormente cabecalho_lista = list(y.columns) cabecalho_lista_transformado = ['lny' if 'ln(' in col else '1/y' if '1/(' in col else 'y²' if '(' in col and ')' in col and '²' in col else 'y' for col in cabecalho_lista] scv_d = cabecalho_lista_transformado[0] X_model = df_model.drop(df_model.columns[[0, 1]], axis=1) cabecalho_lista = list(X_model.columns) cabecalho_lista_transformado = ['lnx' if 'ln(' in col else '1/x' if '1/(' in col else 'x²' if '(' in col and ')' in col and '²' in col else 'x' for col in cabecalho_lista] const = cabecalho_lista_transformado[0] v = cabecalho_lista_transformado[1:] # Exclui o primeiro elemento da lista # Atribuindo os valores restantes a variáveis v_1, v_2, v_3, ... for i, valor in enumerate(v, start=1): globals()[f"scv_{i}"] = valor # Imprimindo os valores armazenados print("const:", const) for i in range(1, len(v) + 1): print(f"scv_{i}:", globals()[f"scv_{i}"]) # Inicializando o modelo de regressão linear modelo = sm.OLS(y, X_model) # Ajustando o modelo aos dados resultado = modelo.fit() # Calculando os resíduos do modelo residuos = resultado.resid # Calculando Desvio Padrão dos Resíduos #desvio_padrao_residuos = round(np.std(resultado.resid), 8) desvio_padrao_residuos = round(np.std(residuos), 8) # Calculando o erro padronizado erro_padronizado = round(residuos / desvio_padrao_residuos, 5) # Calculando Estatística F estatistica_F = round(resultado.fvalue, 8) # Obtendo Nível de Significância do Modelo nivel_significancia = round(resultado.f_pvalue, 8) # Calculando R² r_squared = round(resultado.rsquared, 8) # Calculando R² ajustado r_squared_adjusted = round(resultado.rsquared_adj, 8) # Obtendo Número de Observações num_observacoes = int(round(resultado.nobs, 0)) # Calculando Coeficiente de Correlação coef_correlacao = round(np.sqrt(r_squared), 8) # Comparação com a curva normal de resíduos intervalos = [(-1.00, 1.00), (-1.64, 1.64), (-1.96, 1.96)] # Inicializando a lista para armazenar os percentuais percentuais = [] # Contando o número de resíduos dentro de cada intervalo for intervalo in intervalos: min_intervalo, max_intervalo = intervalo count = np.sum((erro_padronizado >= min_intervalo) & (erro_padronizado <= max_intervalo)) percentual = round(count / len(erro_padronizado) * 100, 0) percentuais.append(f"{percentual:.0f}%") # Criando a string de saída perc_resid = ", ".join(percentuais) # Teste Kolmogorov-Smirnov (KS) ks_test = sm.stats.diagnostic.kstest_normal(residuos) ks_test_formatted = tuple(round(val, 4) for val in ks_test) # Calculando o teste de Jarque-Bera para os resíduos jarque_bera_test, p_value, skewness, kurtosis = jarque_bera(residuos) # Formatando os resultados com 4 casas decimais jarque_bera_test = round(jarque_bera_test, 8) p_value = round(p_value, 8) skewness = round(skewness, 8) kurtosis = round(kurtosis, 8) # Extrair os coeficientes da regressão coeficientes = resultado.params # Calcular a distância de Cook distancia_cook = resultado.get_influence().cooks_distance[0] # String com os resultados resultados_gerais = f""" Desvio Padrão: {desvio_padrao_residuos} Estatística F: {estatistica_F} Nível de Significância do Modelo: {nivel_significancia} R²: {r_squared} R² ajustado: {r_squared_adjusted} Correlação: {coef_correlacao} Número de observações: {num_observacoes} Testes de normalidade: 1) Comparação (curva normal): Ideal 68% - aceitável de 64% a 75% Ideal 90% - aceitável de 88% a 95% Ideal 95% - aceitável de 95% a 100% Percentuais atingidos: {perc_resid} 2) Teste Kolmogorov-Smirnov (KS) - Distribuição dos resíduos: {ks_test} 3) Teste de Jarque-Bera: - Estatística do teste: {jarque_bera_test} - Valor-p: {p_value} - Assimetria (Skewness): {skewness} - Curtose (Kurtosis): {kurtosis} """ # Exibindo estatísticas do modelo resultado_summary = resultado.summary() resultado_html = resultado.summary().tables[1].as_html() #-------------------------------Carregando avaliando(s)----------------------------------# try: # Carregando o(s) avaliando(s) df_aval = pd.read_excel(planilha.name, 'avaliando') X_avalia = df_aval.copy() X_avalia.insert(0, 'const', 1) num_colunas = len(X_avalia.columns) # Iterando sobre as colunas preenchidas for col_index in range(1, num_colunas + 1): # Obtendo o nome do SCV correspondente a esta coluna scv_nome = f"scv_{col_index}" # Verificando se o SCV correspondente existe if scv_nome in globals(): scv = globals()[scv_nome] aplicar_operacao(X_avalia, scv, col_index) # Avaliando(s) valores_previstos_aval = resultado.predict(X_avalia) y_pred = pd.DataFrame(valores_previstos_aval, columns=['VALOR']) df_avalia = pd.concat([df_aval, y_pred], axis=1) if scv_d == 'lny': df_avalia['VALOR'] = round(np.exp(df_avalia['VALOR']), 8) elif scv_d == '1/y': df_avalia['VALOR'] = round(1 / df_avalia['VALOR'], 8) elif scv_d == 'y²': df_avalia['VALOR'] = round(np.sqrt(df_avalia['VALOR']), 8) else: pass # Nenhuma transformação é necessária # Campo de arbítrio df_avalia['LI_CA'] = round((df_avalia['VALOR']*0.85), 2) df_avalia['LS_CA'] = round((df_avalia['VALOR']*1.15), 2) # Intervalo de Confiança de 80% # Calcular os intervalos de confiança para a média prevista intervalo_confianca = resultado.get_prediction(X_avalia).summary_frame(alpha=0.2) # Extrair os limites inferior e superior do intervalo de confiança limite_inferior = intervalo_confianca['mean_ci_lower'] limite_superior = intervalo_confianca['mean_ci_upper'] # Adicionar as colunas ao DataFrame df_aval_original df_avalia['LI_IC'] = limite_inferior.values df_avalia['LS_IC'] = limite_superior.values if scv_d == 'lny': df_avalia['LI_IC'] = round(np.exp(df_avalia['LI_IC']), 2) df_avalia['LS_IC'] = round(np.exp(df_avalia['LS_IC']), 2) elif scv_d == '1/y': df_avalia['LI_IC'] = round(1 / df_avalia['LI_IC'], 2) df_avalia['LS_IC'] = round(1 / df_avalia['LS_IC'], 2) elif scv_d == 'y²': df_avalia['LI_IC'] = round(np.sqrt(df_avalia['LI_IC']), 2) df_avalia['LS_IC'] = round(np.sqrt(df_avalia['LS_IC']), 2) else: pass # Nenhuma transformação é necessária df_avalia['LI_IC_%'] = round(((df_avalia['VALOR']-df_avalia['LI_IC'])/df_avalia['VALOR'])*100, 2) df_avalia['LS_IC_%'] = round(((df_avalia['LS_IC']-df_avalia['VALOR'])/df_avalia['VALOR'])*100, 2) df_avalia['TOTAL_IC_%'] = round(df_avalia['LI_IC_%'] + df_avalia['LS_IC_%'], 2) # Aplicação das condições para determinar 'PRECISÃO' df_avalia['PRECISÃO'] = "" # Inicializa a coluna 'PRECISÃO' df_avalia.loc[df_avalia['TOTAL_IC_%'] <= 30, 'PRECISÃO'] = "Grau III" df_avalia.loc[(df_avalia['TOTAL_IC_%'] > 30) & (df_avalia['TOTAL_IC_%'] <= 40), 'PRECISÃO'] = "Grau II" df_avalia.loc[(df_avalia['TOTAL_IC_%'] > 40) & (df_avalia['TOTAL_IC_%'] <= 50), 'PRECISÃO'] = "Grau I" df_avalia.loc[df_avalia['TOTAL_IC_%'] > 50, 'PRECISÃO'] = "Fora dos critérios" # Salve o DataFrame 'result' em uma planilha df_avalia.to_excel("planilha_aval.xlsx", index=False) except: # Se a aba não existir, crie um DataFrame vazio df_avalia = pd.DataFrame() # Salve o DataFrame em uma planilha df_avalia.to_excel("planilha_aval.xlsx", index=False) #----------------------------------------Outpus------------------------------------------# return ( df_model, #y, #X_model, resultados_gerais, resultado_html, #X_avalia, df_avalia, 'planilha_aval.xlsx' ) #----------------------------------------------------------INTERFACES----------------------------------------------------------# with gr.Blocks(theme=gr.themes.Monochrome(primary_hue="yellow", secondary_hue="yellow",)) as interface: gr.Markdown(f"""
aval ia .se
Aplicativo MCDDM com tratamento científico / Você pode fazer um download de uma planilha de exemplo aqui