A. 如何從postgresq獲取數據到pandas(不通過pandas 的 tosql函數)
直接用pandas讀取PostgreSQL數據不行嗎
from sqlalchemy import create_engine
engine = create_engine('postgresql://user@localhost:5432/mydb')
df = pd.read_sql_query('select * from "Stat_Table"',con=engine)
B. sqlquery怎麼打開
1、首先安中基裝sqlquery,進入主界面。
2、其次選擇安裝地址,等待賣州謹安裝。
3、最後在安裝完畢跡桐,雙擊即可打開sqlquery。
C. SQL 語句里出現QUERY 是什麼意思,具體見下邊語句
QUERY是一州此個欄位,在表tb_users或tb_userinfo_stat中,這里用來臘跡襪設置輪激一個WHERE條件。
D. python執行sql,並保存到excel,很慢
你在伺服器上直接查詢,只是讀取一次數據到內存中。
你現在的代碼,首先要從資料庫讀出,然後要寫入df,df可以看做一個內存資料庫,寫入需要做一些相關的處理,例如索引之類的。
然後又要從df讀出,再寫入excel,這個步驟是寫入磁碟,也是花費時間最多的。
E. Pandas只提供了讀取什麼文件的函數
Pandas 提供了一系列函數,用於讀取不同類型的文件。下搏枯面列出了 Pandas 中常用的讀取文件的函數:
read_csv():讀取 CSV 格式的文件。
read_excel():讀取 Excel 格式的文件。
read_hdf():讀取 HDF5 格式的文件。
read_json():讀取 JSON 格式的文件。
read_pickle():讀取 Python 序迅凱列化格式的文件(即 pickle 文件)。
read_sql():從資料庫中讀取數據。
這些函數都可以在 Pandas 的文檔中找到詳細的使用方法:https://pandas.pydata.org/pandas-docs/stable/user_guide/io.html
此外,Pandas 還支持使用 Python 內置的 open() 函數讀取文本文件,使用 pd.read_table() 函數讀取表格式的文件,使用 pd.read_clipboard() 函數讀取剪貼板中的數據等畝銀喚。
希望這些信息能幫助你。如果你有其他問題,請隨時追問。
F. pandas透視之後如何表頭很奇怪
網路知道
pandas透視之後如何表頭很奇怪
司徒為0f1
貢獻了超過424個回答
關注
成為第1位粉絲
1、修改表頭(columns)1、修改所有列列名如:a,b修改為A、B。df.columns = ['A','B']print(df)結果:A B0 1 11 2 22、只修改指定列列名如:a修改為Adf.rename(columns={'a':'A'},inplace=True)print(df)1212結果A b0 1 11 2 22 3 31其他df:任意的Pandas DataFrame對象s:任意的Pandas Series對象raw:行標簽col:列標簽導入依賴鄭配包:import pandas as pdimport numpy as np12121、導入數據pd.read_csv(filename_path):從CSV文件導入數據pd.read_table(filename_path):從限定分隔符的文本文件導入數據pd.read_excel(filename_path):從Excel文件導入數據pd.read_sql(query, connection_object):從SQL表/庫導入數據pd.read_json(json_string):從JSON格式的字元串導入數據pd.read_html(url):解析URL、字元串或桐叢升者HTML文件,抽取其中的tables表格pd.read_clipboard():從你的粘貼板獲取內容,並傳給read_table()pd.DataFrame(dict):從字典對象導入數據,Key是列名,Value是數據2、導出數據df.to_csv(filename_path):導出數據到CSV文件df.to_excel(filename_path):導出數據到Excel文件df.to_sql(table_name, connection_object):導出數據到SQL表df.to_json(filename_path):以Json格式導出數據到文本文件3、創建測試數據pd.DataFrame(np.random.rand(20,5)):創建20行5列的隨機數組成的DataFrame對象pd.Series(my_list):從可迭代對象my_list創建一個Series對象df.index = pd.date_range('1900/1/30', periods=df.shape[0]):增加一個日期索引4、查看、檢查數據df.head(n):查看DataFrame對象的前n行(不加參數,默認前10行)df.tail(n):查看DataFrame對象的最後n行(不加參數,默認後10行)df.shape():查看行數和列數(維度查看)df.info():查看索引、數據類型和內存信息df.describe():查看數值型列的匯總統計s.value_counts(dropna=False):查看Series對象的唯一值和計數df.apply(pd.Series.value_counts):查看DataFrame對象中每一列的唯一值和計數df.dtypes:查看每一列的數據類型(擴展:df['two'].dtypes,查看「two」列的類型)df.isnull():查看空置(註:空置部分會用true顯示,不是空置False顯示)(擴展:df['two'].isnull,查看「two」這一列的空置)df.values:查看數據表的值df.column5、數據選取(具體使用見https://www.cnblogs.com/luckyplj/p/13274662.html)df.isin([5]):判斷全部數據值中是否有5df[col].isin([5]):判斷列col中是否有5df[col]:根據列名,並以Series的形式返回列df[[col1, col2]]:以DataFrame形式返回多列s.iloc[0]:按位置選取行數據s.loc['index_one']:按索引選取行數據df.loc[:,'reviews'] 獲取指定列的數據 注意: 第一個參數為:表示所有行,第2個參數為列名,設置獲取列名為review的數據df.loc[[0,2],['customername','reviews','review_fenci']] 選擇指局老定的多行多列 參數說明: [0,2] 這個列表有兩個元素0,2表示選擇第0行和第2行['customername','reviews','review_fenci']這個列表有3個元素表示選擇列名為'customername','reviews','review_fenci『的這3列df.iloc[0,:]:返回第一行df.iloc[0,0]:返回第一行的第一個元素df.ix[0] 或 df.ix[raw] :ix函數可以根據行位置或行標簽選擇行數據註:loc函數根據行/列標簽(用戶自定義的行名、列名)進行行選擇;iloc函數根據行/列位置(默認的行列索引)進行行選擇;6、數據清理df.columns = ['a','b','c']:重命名列名pd.isnull():檢查DataFrame對象中的空值,並返回一個Boolean數組pd.notnull():檢查DataFrame對象中的非空值,並返回一個Boolean數組df.dropna():刪除所有包含空值的行df.dropna(axis=1):刪除所有包含空值的列df.dropna(axis=1,thresh=n):刪除所有小於n個非空值的行df.fillna(x):用x替換DataFrame對象中所有的空值(註:fillna()會填充nan數據,返回填充後的結果。如果希望在原DataFrame中修改,則把inplace設置為True。如,df.fillna(0,inplace=True))mydf['列名']=mydf['列名'].fillna(0) 某一列的空值補零s.astype(float):將Series中的數據類型更改為float類型df[col].astype(float):將DataFrame某列數據類型改為float類型s.replace(1,'first'):用『first』代替所有等於1的值(替換的是值,不是列名也不是索引名)s.replace([1,3],['one','three']):用'one'代替1,用'three'代替3df[col].replace(1,1.0,inplace=True):列col中的值1用1.0替換df.replace([1,3],['one','three'])df.rename(columns=lambda x: x + 1):批量更改列名df.rename(columns={'old_name': 'new_ name'}):選擇性更改列名df.set_index('column_one'):將column_one這一列變為索引列df.rename(index=lambda x: x + 1):批量重命名索引df[col]=df[col].str.upper()或df[col].str.lower():基於列的大小寫轉換df[col]=df[col].map(str.strip):清除某列的空格df.drop_plicates(subset=col,keep='fisrt',inplace=Flase)註:這個drop_plicate方法是對DataFrame格式的數據,去除特定列下面的重復行。返回DataFrame格式的數據。subset : column label or sequence of labels, optional 用來指定特定的列,默認所有列keep : {『first』, 『last』, False}, default 『first』 刪除重復項並保留第一次出現的項inplace : boolean, default False 是直接在原來數據上修改還是保留一個副本7、數據處理df[df[col] > 0.5]:選擇col列的值大於0.5的行df.sort_values(col1):按照列col1排序數據,默認升序排列df.sort_values(col2, ascending=False):按照列col1降序排列數據df.sort_values([col1,col2], ascending=[True,False]):先按列col1升序排列,後按col2降序排列數據df.groupby(col):返回一個按列col進行分組的Groupby對象df.groupby([col1,col2]):返回一個按多列進行分組的Groupby對象df.groupby(col1)[col2]:返回按列col1進行分組後,列col2的均值df.pivot_table(index=col1, values=[col2,col3], aggfunc=max):創建一個按列col1進行分組,並計算col2和col3的最大值的數據透視表df.groupby(col1).agg(np.mean):返回按列col1分組的所有列的均值data.apply(np.mean):對DataFrame中的每一列應用函數np.meandata.apply(np.max,axis=1):對DataFrame中的每一行應用函數np.maxdf.isin8、數據合並df1.append(df2):將df2中的行添加到df1的尾部df.concat([df1, df2],axis=1):將df2中的列添加到df1的尾部df1.join(df2,on=col1,how='inner'):對df1的列和df2的列執行SQL形式的join9、數據統計
G. sql server 怎麼使用query方法
使用資料庫介面工具ODBC以及查詢工具Microsoft Query讀取資料庫的表結構。
結果: 使用Microsoft Query讀取資料庫的表結構,對於非計算機專業人員而言,清除了數據挖掘的入門障礙。
結論:Microsoft Query讀取資料庫表結構,使用簡單,功能強大,是數據挖掘的好工具。
H. createSQLQuery查詢數據,只返回一條數據,query.list()為null,資料庫有數據,這是為什麼
你把sql語句放到資料庫執行下 看下有多少條數據滿足 是不是條件或者許可權過濾過濾掉了
I. 資料庫間如何自動拿數據
詳情如下:
1、連接資料庫,不同資料庫python有對應的第三方庫,用賬號密碼ip地址直接連接。
2、執行sql語句,可以用pandas裡面的read_sql_query,也可以用資料庫第三方庫的fetchall。
3、獲取結果,read_sql_query直接出來帶列名的DataFrame,但fetchall這種還要另外處理成DataFrame,還有其他數據處理的,在這一步加上就是了。
4、保存結果,pandas裡面有一個to_pickle的函數,可以把數據序列化保存在本地文件,需要用到的時候再read_pickle反序列拿出來用,比不停地執行sql要方便。
5、將以上四步所有的操作代碼封裝成函數,作為scheler的其中一個作業,設置執行周期和執行時間,到點就會自動獲取數據保存在本地文件了