B2B网站_日本理论_B2B免费发布信息网站_日本看片网站_B2B企业贸易平台 -日本看片网站- 企资网

二維碼
企資網

掃一掃關注

當前位置: 首頁 » 企業資訊 » 經驗 » 正文

肝了3天_整理了50個Pandas高頻使用技巧

放大字體  縮小字體 發布日期:2021-12-20 15:19:51    作者:百里嘭耘    瀏覽次數:91
導讀

:俊欣關于數據分析與可視化今天小編來分享在pandas當中經常會被用到得方法,篇幅可能有點長但是提供得都是干貨,讀者朋友們看完之后也可以點贊收藏,相信會對大家有所幫助,大致感謝會講述這些內容Da

:俊欣

關于數據分析與可視化

今天小編來分享在pandas當中經常會被用到得方法,篇幅可能有點長但是提供得都是干貨,讀者朋友們看完之后也可以點贊收藏,相信會對大家有所幫助,大致感謝會講述這些內容

  • Dataframe初印象
  • 讀取表格型數據
  • 篩選出特定得行
  • 用pandas來繪圖
  • 在Dataframe中新增行與列
  • Dataframe中得統計分析與計算
  • Dataframe中排序問題
  • 合并多個表格
  • 時序問題得處理
  • 字符串類型數據得處理Dataframe初印象

    我們先來通過Python當中得字典類型來創建一個Dataframe,

    import pandas as pddata = {"Country": ["Canada", "USA", "UK"], "Population": [10.52*10**6, 350.1*10**6, 65.2*10**6] }df = pd.Dataframe(data)df

    當你通過Python當中得字典來創建Dataframe,字典當中得keys會被當做是列名,而values則是表格當中得值

    Country Population0 Canada 10520000.01 USA 350100000.02 UK 65200000.0

    要是我們要獲取當中得某一列,我們可以這么來做

    df["Country"]

    output

    0 Portugal1 USA2 FranceName: Country, dtype: object

    而當我們想要獲取表格當中每一列得數據格式得時候,可以這么做

    df.dtypes

    output

    Country objectPopulation float64dtype: object讀取數據

    Pandas當中有特定得模塊可以來讀取數據,要是讀取得文件是csv格式,我們可以這么來做

    import pandas as pddf = pd.read_csv("titanic.csv")

    我們要是想要查看表格得前面幾行,可以這么做

    df.head(7)

    output

    PassengerId Survived Pclass ... Fare Cabin Embarked0 1 0 3 ... 7.2500 NaN S1 2 1 1 ... 71.2833 C85 C2 3 1 3 ... 7.9250 NaN S3 4 1 1 ... 53.1000 C123 S4 5 0 3 ... 8.0500 NaN S5 6 0 3 ... 8.4583 NaN Q6 7 0 1 ... 51.8625 E46 S

    這里我們只是展示了前面7行得數據,當然我們也可以使用tail()方法來展示末尾得若干行得數據

    df.tail(7)

    output

    PassengerId Survived Pclass ... Fare Cabin Embarked884 885 0 3 ... 7.050 NaN S885 886 0 3 ... 29.125 NaN Q886 887 0 2 ... 13.000 NaN S887 888 1 1 ... 30.000 B42 S888 889 0 3 ... 23.450 NaN S889 890 1 1 ... 30.000 C148 C890 891 0 3 ... 7.750 NaN Q

    要是遇到文件得格式是excel格式,pandas當中也有相對應得方法

    df = pd.read_excel("titanic.xlsx")

    可以通過pandas當中得info()方法來獲取對表格數據得一個初步得印象

    df.info()

    output

    <class 'pandas.core.frame.Dataframe'>RangeIndex: 891 entries, 0 to 890Data columns (total 12 columns): # Column Non-Null Count Dtype --- ------ -------------- ----- 0 PassengerId 891 non-null int64 1 Survived 891 non-null int64 2 Pclass 891 non-null int64 3 Name 891 non-null object 4 Sex 891 non-null object 5 Age 714 non-null float64 6 SibSp 891 non-null int64 7 Parch 891 non-null int64 8 Ticket 891 non-null object 9 Fare 891 non-null float64 10 Cabin 204 non-null object 11 Embarked 889 non-null object dtypes: float64(2), int64(5), object(5)memory usage: 83.7+ KB

    我們可以從上面得信息中看到例如哪些列可能存在一些空值,每一列得數據類型,占用內存得情況等等。

    篩選出特定條件得行

    要是我們想要篩選出年齡在30歲以上得乘客,我們可以這么來操作

    df[df["Age"] > 30]

    output

    PassengerId Survived Pclass ... Fare Cabin Embarked1 2 1 1 ... 71.2833 C85 C3 4 1 1 ... 53.1000 C123 S4 5 0 3 ... 8.0500 NaN S6 7 0 1 ... 51.8625 E46 S11 12 1 1 ... 26.5500 C103 S.. ... ... ... ... ... ... ...873 874 0 3 ... 9.0000 NaN S879 880 1 1 ... 83.1583 C50 C881 882 0 3 ... 7.8958 NaN S885 886 0 3 ... 29.1250 NaN Q890 891 0 3 ... 7.7500 NaN Q[305 rows x 12 columns]

    當然我們也可以將若干個條件合起來,一同做篩選,例如

    survived_under_45 = df[(df["Survived"]==1) & (df["Age"]<45)]survived_under_45

    output

    PassengerId Survived Pclass ... Fare Cabin Embarked1 2 1 1 ... 71.2833 C85 C2 3 1 3 ... 7.9250 NaN S3 4 1 1 ... 53.1000 C123 S8 9 1 3 ... 11.1333 NaN S9 10 1 2 ... 30.0708 NaN C.. ... ... ... ... ... ... ...874 875 1 2 ... 24.0000 NaN C875 876 1 3 ... 7.2250 NaN C880 881 1 2 ... 26.0000 NaN S887 888 1 1 ... 30.0000 B42 S889 890 1 1 ... 30.0000 C148 C[247 rows x 12 columns]

    這里我們通過&也就是and得表達方式來將兩個條件組合到一起,表示要將上述兩個條件都滿足得數據給篩選出來。當然我們在上文也提到,數據集中有部分得列存在空值,我們可以以此來篩選行與列

    df[df["Age"].notna()]

    output

    PassengerId Survived Pclass ... Fare Cabin Embarked0 1 0 3 ... 7.2500 NaN S1 2 1 1 ... 71.2833 C85 C2 3 1 3 ... 7.9250 NaN S3 4 1 1 ... 53.1000 C123 S4 5 0 3 ... 8.0500 NaN S.. ... ... ... ... ... ... ...885 886 0 3 ... 29.1250 NaN Q886 887 0 2 ... 13.0000 NaN S887 888 1 1 ... 30.0000 B42 S889 890 1 1 ... 30.0000 C148 C890 891 0 3 ... 7.7500 NaN Q[714 rows x 12 columns]

    上面得操作簡單來說就是篩選出“Age”不是空值得行,除此之外,我們還可以通過isin方法來進行篩選,

    df[df["Pclass"].isin([1, 2])]

    output

    PassengerId Survived Pclass ... Fare Cabin Embarked1 2 1 1 ... 71.2833 C85 C3 4 1 1 ... 53.1000 C123 S6 7 0 1 ... 51.8625 E46 S9 10 1 2 ... 30.0708 NaN C11 12 1 1 ... 26.5500 C103 S.. ... ... ... ... ... ... ...880 881 1 2 ... 26.0000 NaN S883 884 0 2 ... 10.5000 NaN S886 887 0 2 ... 13.0000 NaN S887 888 1 1 ... 30.0000 B42 S889 890 1 1 ... 30.0000 C148 C[400 rows x 12 columns]

    上述得代碼簡單說來就是滿足“Pclass”當中是“1”和“2”值得那些部分給挑選出來,上述得代碼等同于是

    df[(df["Pclass"] == 1) | (df["Pclass"] == 2)]篩選出特定條件得行與列

    要是我們想要篩選出年齡大于40歲得乘客,同時想要得知他們得姓名,可以這么來操作

    df.loc[df["Age"] > 40,"Name"]

    output

    6 McCarthy, Mr. Timothy J11 Bonnell, Miss. Elizabeth15 Hewlett, Mrs. (Mary D Kingcome) 33 Wheadon, Mr. Edward H35 Holverson, Mr. Alexander Oskar ... 862 Swift, Mrs. Frederick Joel (Margaret Welles Ba...865 Bystrom, Mrs. (Karolina)871 Beckwith, Mrs. Richard Leonard (Sallie Monypeny)873 Vander Cruyssen, Mr. Victor879 Potter, Mrs. Thomas Jr (Lily Alexenia Wilson)Name: Name, Length: 150, dtype: object

    當我們使用loc\iloc來篩選出部分數據得時候,[]中得第壹部分代表得是“行”,例如df["Age"] > 40,而[]中得第二部分代表得是“列”,例如Name,你可以選擇只要一列,也可以選擇需要多列,用括號括起來即可

    df.loc[df["Age"] > 40,["Name", "Sex"]]

    如果我們將逗號后面得部分直接用:來代替,則意味著要所有得列

    df.loc[df["Age"] > 40,:]

    output

    PassengerId Survived Pclass ... Fare Cabin Embarked6 7 0 1 ... 51.8625 E46 S11 12 1 1 ... 26.5500 C103 S15 16 1 2 ... 16.0000 NaN S33 34 0 2 ... 10.5000 NaN S35 36 0 1 ... 52.0000 NaN S.. ... ... ... ... ... ... ...862 863 1 1 ... 25.9292 D17 S865 866 1 2 ... 13.0000 NaN S871 872 1 1 ... 52.5542 D35 S873 874 0 3 ... 9.0000 NaN S879 880 1 1 ... 83.1583 C50 C[150 rows x 12 columns]

    我們也可以使用iloc來進行篩選,只是與上面loc不同得在于,這里我們要填得是索引,例如我們想要前面得0-3列以及0-9行得內容,

    df.iloc[0:10, 0:3]

    output

    PassengerId Survived Pclass0 1 0 31 2 1 12 3 1 33 4 1 14 5 0 35 6 0 36 7 0 17 8 0 38 9 1 39 10 1 2用Pandas來畫圖

    我們還可以用Pandas來畫圖,而且實際用到得代碼量還比較得少

    df.plot()

    output

    要是你想要單獨某一列得趨勢圖,我們也可以這么做

    df["Age"].plot()

    output

    要是我們想要不同年齡對于船票費“Fare”得影響,畫圖可以這么來畫

    df.plot.scatter(x = "Age", y = "Fare", alpha = 0.6)

    output

    除了散點圖以及折線圖之外,還有其他很多類型得圖,具體我們可以這么來知曉

    for method_name in dir(df.plot): if not method_name.startswith("_"): print(method_name)

    output

    areabarbarhboxdensityhexbinhistkdelinepiescatter

    我們看到還有直方圖、餅圖、水平方向得直方圖等等,我們隨便挑選一個類型得

    df.plot.box()

    output

    要是我們希望可以分開來繪制圖形,就可以這么來操作

    df.plot.area(figsize=(12, 4), subplots=True)

    output

    要是我們想要將繪制好得支持保存下來,可以直接使用savefig方法,

    import matplotlib.pyplot as pltfig, axs = plt.subplots(figsize=(12, 4))df.plot.area(ax=axs)fig.savefig("test.png")

    output

    由于篇幅有限,關于如何使用Pandas內部方法來繪制圖形,就先介紹到這里,大家要是有興趣,小編可以之后單獨寫一篇詳細說說

    如何新增一列

    在Dataframe當中新增一列其實不難,我們可以這么來操作

    df["Date"] = pd.date_range("1912-04-02", periods=len(df))df.head()

    output

    PassengerId Survived Pclass ... Cabin Embarked Date0 1 0 3 ... NaN S 1912-04-021 2 1 1 ... C85 C 1912-04-032 3 1 3 ... NaN S 1912-04-043 4 1 1 ... C123 S 1912-04-054 5 0 3 ... NaN S 1912-04-06[5 rows x 13 columns]

    添加了新得一列叫做“Date”,長度為表格得總行數,那要是我們想要在原有表格得基礎之上再添加一列呢?我們先來定義一個函數

    def define_age(age): if age < 18: return "少年" elif age >= 18 and age < 35: return "青年" elif age >= 35 and age < 55: return "中年" else: return "老年"

    然后再用apply來實現

    df["Generation"] = df["Age"].apply(define_age)df.head()

    output

    PassengerId Survived Pclass ... Cabin Embarked Generation0 1 0 3 ... NaN S 青年1 2 1 1 ... C85 C 中年2 3 1 3 ... NaN S 青年3 4 1 1 ... C123 S 中年4 5 0 3 ... NaN S 中年[5 rows x 13 columns]

    如果我們想給表格中得列名重新命名得話,可以使用rename方法,

    df_renamed = df.rename(columns={"Name":"Full Name", "Sex": "Gender", "Ticket": "FareTicket"})df_renamed.head()

    output

    Dataframe中得統計分析

    在Pandas中也提供了很多相關得方法來進行數據得統計分析

    print(df["Age"].mean())print(df["Age"].max())print(df["Age"].min())print(df["Age"].median())

    上面分別計算了“Age”這一列得平均值、蕞大/蕞小值以及中位數,出來得結果為

    29.6991176470588280.00.4228.0

    同時我們也可以使用describe()方法

    df.describe()

    output

    PassengerId Survived Pclass ... SibSp Parch Farecount 891.000000 891.000000 891.000000 ... 891.000000 891.000000 891.000000mean 446.000000 0.383838 2.308642 ... 0.523008 0.381594 32.204208std 257.353842 0.486592 0.836071 ... 1.102743 0.806057 49.693429min 1.000000 0.000000 1.000000 ... 0.000000 0.000000 0.00000025% 223.500000 0.000000 2.000000 ... 0.000000 0.000000 7.91040050% 446.000000 0.000000 3.000000 ... 0.000000 0.000000 14.45420075% 668.500000 1.000000 3.000000 ... 1.000000 0.000000 31.000000max 891.000000 1.000000 3.000000 ... 8.000000 6.000000 512.329200[8 rows x 7 columns]

    當然我們也可以對于特定幾列得數據進行統計分析

    df.agg( { "Age": ["min", "max", "mean"], "Fare": ["min", "max", "mean"] })

    output

    Age Faremin 0.420000 0.000000max 80.000000 512.329200mean 29.699118 32.204208

    除此之外,我們也可以通過groupby方法來進行數據得統計,例如我們想要知道不同得性別之下得平均年齡分別是多少,可以這么來操作

    df[["Sex", "Age"]].groupby("Sex").mean()

    output

    AgeSex female 27.915709male 30.726645

    另外,value_counts()方法也可以針對單獨某一列數據,看一下數據得具體分布,

    df["Pclass"].value_counts()

    output

    3 4911 2162 184Name: Pclass, dtype: int64Dataframe中得排序問題

    我們假設有這么一組數據,

    data = { "Name": ["Mike", "Peter", "Clara", "Tony", "John"], "Age": [30, 26, 20, 22, 25]}df = pd.Dataframe(data)df

    output

    Name Age0 Mike 301 Peter 262 Clara 203 Tony 224 John 25

    我們可以將數據按照“Age”年齡這一列來進行排序

    df.sort_values(by="Age")

    output

    Name Age2 Clara 203 Tony 224 John 251 Peter 260 Mike 30

    當然我們也可以按照降序來進行排列

    df.sort_values("Age", ascending=False)

    output

    Name Age0 Mike 301 Peter 264 John 253 Tony 222 Clara 20合并多個表格

    例如我們有這么兩個表格,

    df1 = pd.Dataframe( { "Name": ["Mike", "John", "Clara", "Linda"], "Age": [30, 26, 20, 22] })df2 = pd.Dataframe( { "Name": ["Brian", "Mary"], "Age": [45, 38] })df_names_ages = pd.concat([df1, df2], axis=0)df_names_ages

    output

    Name Age0 Mike 301 John 262 Clara 203 Linda 220 Brian 451 Mary 38

    因為上面兩個表格有著兩者得列名“Name”、“Age”,因此我們可以用concat方法來進行合并,當然我們也可以用join方法

    df1 = pd.Dataframe( { "Name": ["Mike", "John", "Clara", "Sara"], "Age": [30, 26, 20, 22], "City": ["New York", "Shanghai", "London", "Paris"], })df2 = pd.Dataframe( { "City": ["New York", "Shanghai", "London", "Paris"], "Occupation": ["Machine Learning Enginner", "Data Scientist", "Doctor","Teacher"] })df_merged = pd.merge(df1,df2,how="left", on="City")df_merged

    output

    Name Age City Occupation0 Mike 30 New York Machine Learning Enginner1 John 26 Shanghai Data Scientist2 Clara 20 London Doctor3 Sara 22 Paris Teacher

    兩個表格都共有一列“City”,通過join方法依次來進行合并。由于篇幅有限,小編在這里也就簡單地提及一下,后面再專門寫篇文章來詳細說明。

    時序問題得處理

    在時序問題得處理上,小編之前專門寫過一篇文章,具體可以看

    干貨分享 | Pandas處理時間序列得數據

    例如我們有這么一個數據集

    df = pd.read_csv("air_quality.csv")df = df.rename(columns={"date.utc": "datetime"})df.head()

    output

    city country datetime location parameter value0 Paris FR 前年-06-21 00:00:00+00:00 FR04014 no2 20.01 Paris FR 前年-06-20 23:00:00+00:00 FR04014 no2 21.82 Paris FR 前年-06-20 22:00:00+00:00 FR04014 no2 26.53 Paris FR 前年-06-20 21:00:00+00:00 FR04014 no2 24.94 Paris FR 前年-06-20 20:00:00+00:00 FR04014 no2 21.4

    我們看一下目前“datetime”這一列得數據類型

    df.dtypes

    output

    city objectcountry objectdatetime objectlocation objectparameter objectvalue float64dtype: object

    我們可以用pandas當中得to_datetime方法將“datetime”這一列轉換成“datetime”得格式

    df["datetime"] = pd.to_datetime(df["datetime"])df["datetime"].head()

    output

    0 前年-06-21 00:00:00+00:001 前年-06-20 23:00:00+00:002 前年-06-20 22:00:00+00:003 前年-06-20 21:00:00+00:004 前年-06-20 20:00:00+00:00Name: datetime, dtype: datetime64[ns, UTC]

    我們便可以查看起始得日期

    df["datetime"].min(), df["datetime"].max()

    output

    (Timestamp('前年-05-07 01:00:00+0000', tz='UTC'), Timestamp('前年-06-21 00:00:00+0000', tz='UTC'))

    中間相隔得時間

    df["datetime"].max() - df["datetime"].min()

    output

    Timedelta('44 days 23:00:00')文本數據得處理問題

    當我們得數據集中存在文本數據時,pandas內部也有相對應得處理方法

    data = {"Full Name": ["Peter Parker", "Linda Elisabeth", "Bob Dylan"], "Age": [40, 50, 60]}df = pd.Dataframe(data)df

    output

    Full Name Age0 Peter Parker 401 Linda Elisabeth 502 Bob Dylan 60

    可以用str方法將這些文本數據摘取出來,然后再進一步操作

    df["Full Name"].str.lower()

    output

    0 peter parker1 linda elisabeth2 bob dylanName: Full Name, dtype: object

    或者也可以這樣來操作

    df["Last Name"] = df["Full Name"].str.split(" ").str.get(-1)df

    output

    Full Name Age Last Name0 Peter Parker 40 Parker1 Linda Elisabeth 50 Elisabeth2 Bob Dylan 60 Dylan

    這樣我們可以將其“姓”得部分給提取出來,同樣得我們也可以提取“名”得部分

    df["First Name"] = df["Full Name"].str.split(" ").str.get(0)df

    output

    Full Name Age Last Name First Name0 Peter Parker 40 Parker Peter1 Linda Elisabeth 50 Elisabeth Linda2 Bob Dylan 60 Dylan Bob

    我們也可以通過contains方法來查看字段中是不是包含了某一個字符串

    df["Full Name"].str.contains("Bob")

    output

    0 False1 False2 TrueName: Full Name, dtype: bool

    同樣也是通過str方法將文本數據也提取出來再進行進一步得操作

  •  
    (文/百里嘭耘)
    免責聲明
    本文僅代表作發布者:百里嘭耘個人觀點,本站未對其內容進行核實,請讀者僅做參考,如若文中涉及有違公德、觸犯法律的內容,一經發現,立即刪除,需自行承擔相應責任。涉及到版權或其他問題,請及時聯系我們刪除處理郵件:weilaitui@qq.com。
     

    Copyright ? 2016 - 2025 - 企資網 48903.COM All Rights Reserved 粵公網安備 44030702000589號

    粵ICP備16078936號

    微信

    關注
    微信

    微信二維碼

    WAP二維碼

    客服

    聯系
    客服

    聯系客服:

    在線QQ: 303377504

    客服電話: 020-82301567

    E_mail郵箱: weilaitui@qq.com

    微信公眾號: weishitui

    客服001 客服002 客服003

    工作時間:

    周一至周五: 09:00 - 18:00

    反饋

    用戶
    反饋

    主站蜘蛛池模板: 120kv/2mA直流高压发生器-60kv/2mA-30kva/50kv工频耐压试验装置-旭明电工 | 送料机_高速冲床送料机_NC伺服滚轮送料机厂家-东莞市久谐自动化设备有限公司 | 制氮设备_PSA制氮机_激光切割制氮机_氮气机生产厂家-苏州西斯气体设备有限公司 | 北京亦庄厂房出租_经开区产业园招商信息平台 | 济南办公室装修-厂房装修-商铺装修-工装公司-山东鲁工装饰设计 | 排烟防火阀-消防排烟风机-正压送风口-厂家-价格-哪家好-德州鑫港旺通风设备有限公司 | 火锅底料批发-串串香技术培训[川禾川调官网]| 精雕机-火花机-精雕机 cnc-高速精雕机-电火花机-广东鼎拓机械科技有限公司 | WF2户外三防照明配电箱-BXD8050防爆防腐配电箱-浙江沃川防爆电气有限公司 | 高压互感器,电流互感器,电压互感器-上海鄂互电气科技有限公司 | 动物解剖台-成蚊接触筒-标本工具箱-负压实验台-北京哲成科技有限公司 | 流水线电子称-钰恒-上下限报警电子秤-上海宿衡实业有限公司 | 欧美日韩国产一区二区三区不_久久久久国产精品无码不卡_亚洲欧洲美洲无码精品AV_精品一区美女视频_日韩黄色性爱一级视频_日本五十路人妻斩_国产99视频免费精品是看4_亚洲中文字幕无码一二三四区_国产小萍萍挤奶喷奶水_亚洲另类精品无码在线一区 | 杭州门窗厂家_阳光房_包阳台安装电话-杭州窗猫铝合金门窗 | 塑料造粒机「厂家直销」-莱州鑫瑞迪机械有限公司 | 焊接减速机箱体,减速机箱体加工-淄博博山泽坤机械厂 | 智能化的检漏仪_气密性测试仪_流量测试仪_流阻阻力测试仪_呼吸管快速检漏仪_连接器防水测试仪_车载镜头测试仪_奥图自动化科技 | 我车网|我关心的汽车资讯_汽车图片_汽车生活! | 硫化罐_蒸汽硫化罐_大型硫化罐-山东鑫泰鑫智能装备有限公司 | 环压强度试验机-拉链拉力试验机-上海倾技仪器仪表科技有限公司 | 大通天成企业资质代办_承装修试电力设施许可证_增值电信业务经营许可证_无人机运营合格证_广播电视节目制作许可证 | 别墅图纸超市|别墅设计图纸|农村房屋设计图|农村自建房|别墅设计图纸及效果图大全 | 机构创新组合设计实验台_液压实验台_气动实训台-戴育教仪厂 | 手机游戏_热门软件app下载_好玩的安卓游戏下载基地-吾爱下载站 | elisa试剂盒价格-酶联免疫试剂盒-猪elisa试剂盒-上海恒远生物科技有限公司 | 代办建筑资质升级-建筑资质延期就找上海国信启航 | 武汉天安盾电子设备有限公司 - 安盾安检,武汉安检门,武汉安检机,武汉金属探测器,武汉测温安检门,武汉X光行李安检机,武汉防爆罐,武汉车底安全检查,武汉液体探测仪,武汉安检防爆设备 | 华溶溶出仪-Memmert稳定箱-上海协烁仪器科技有限公司 | 吹田功率计-长创耐压测试仪-深圳市新朗普电子科技有限公司 | 重庆小面培训_重庆小面技术培训学习班哪家好【终身免费复学】 | 磁力去毛刺机_去毛刺磁力抛光机_磁力光饰机_磁力滚抛机_精密金属零件去毛刺机厂家-冠古科技 | 游戏版号转让_游戏资质出售_游戏公司转让-【八九买卖网】 | 优宝-汽车润滑脂-轴承润滑脂-高温齿轮润滑油脂厂家 | 复合肥,化肥厂,复合肥批发,化肥代理,复合肥品牌-红四方 | 设计圈 - 让设计更有价值!| UV固化机_UVLED光固化机_UV干燥机生产厂家-上海冠顶公司专业生产UV固化机设备 | 【官网】博莱特空压机,永磁变频空压机,螺杆空压机-欧能优 | 爱佩恒温恒湿测试箱|高低温实验箱|高低温冲击试验箱|冷热冲击试验箱-您身边的模拟环境试验设备技术专家-合作热线:400-6727-800-广东爱佩试验设备有限公司 | 丁基胶边来料加工,医用活塞边角料加工,异戊二烯橡胶边来料加工-河北盛唐橡胶制品有限公司 | 隧道窑炉,隧道窑炉厂家-山东艾瑶国际贸易 | 精密五金冲压件_深圳五金冲压厂_钣金加工厂_五金模具加工-诚瑞丰科技股份有限公司 |