Back/Python

    Python (그래프)

    #matplotlib : 그래프 형태의 자료형 + numpy import matplotlib.pyplot as mpt #그래프모듈 import mfont x=[1,3,5] #가로값 y=[2,4,6] #세로값 mpt.plot(x,y) #숫자리스트를 그래프로 표현함 mpt.title("테스트그래프") #그래프 화면에 제목 mpt.show() #그래프 모듈화면을 출력하는 역할을 합니다. # data=[10,6,4,7,3,2,9] # data =[1,5,9,10,2] data=[50,25,-8,12,26,20,37] mpt.plot(data) mpt.show()​ mfont.py from matplotlib import font_manager, rc, rcParams #한글 깨짐을 방지하기위한 세팅 font =..

    Python (import pandas)

    import pandas as pd from sqlite3 import * from dbconnect import * sqlin = connect.cursor() sql="select * from test3" #read_sql_query, read_sql (pandas전용 DB연결 형태) #read_sql_query("SQL문법", "DB접속정보") data=pd.read_sql_query(sql,connect) #삭제형태로 가져오는 컬럼형태 # data = data.drop(columns=["midx","mpw","mtel"]) #저장할 컬럼만 가져오는 형태 data=data[["mid","mnm","mage"]] data=pd.DataFrame(data) data=data.rename(columns=..

    python 웹스크래핑(kbo순위)

    from bs4 import BeautifulSoup from requests import * # 해당 사이트에 접속하여 Devtool로 볼 경우 데이터가 확인이 되지만 실제 크롤링 후 스크래핑시 데이터가 확인 안될 경우는 AJAX및 JS로 직접 태그가 생성되도록 제작되었음. # 이럴경우 스크래핑 하기가 어려워짐 url = "https://www.koreabaseball.com/TeamRank/TeamRank.aspx" result = get(url) result.raise_for_status() html = BeautifulSoup(result.text,"lxml") baseball = html.find("div",attrs={"id":"cphContents_cphContents_cphContents_..

    python 웹스크래핑(네이버웹툰 인기)

    from bs4 import BeautifulSoup from requests import * url = "https://comic.naver.com/index" result = get(url) # status 코드에 대한 문제사항 출력 None = 문제 없음 result.raise_for_status() print(result.raise_for_status()) html = BeautifulSoup(result.text,"lxml") #lxml(자동파서) - 설치 필요 cartoon = html.find("ol",attrs={"id":"realTimeRankFavorite"}) atag = cartoon.find_all("a") for aa in atag: print(aa.get_text()) # pr..

    python 웹스크래핑(네이버뉴스 인기)

    from bs4 import BeautifulSoup from os import * from requests import * from idlelib.iomenu import encoding from urllib.request import urlopen from tkinter import * # url = "https://sports.naver.com/news?oid=236&aid=0000227648" url = "https://www.nate.com/" res = get(url) res.raise_for_status() result = BeautifulSoup(res.text, "lxml") # 태그 이름을 적용하여 태그 안에 있는 텍스트를 가져올 수 있음 # 단 중복된 태그가 있을 경우 제일 먼저 읽어..

    python 예외처리 및 크롤링 저장

    from bs4 import BeautifulSoup from os import * from requests import * # requests : 해당 url 접속 정보를 확인 (lib 설치해야함) url = get("http://www.naver.com/") print("응답코드 : ", url.status_code) # 200 : 정상 if url.status_code == codes.ok: print(url.text) print("정상적인 웹사이트 페이지입니다.") else: print("보안 또는 코드에 문제가 있는 웹 사이트입니다.") from bs4 import BeautifulSoup from os import * from requests import * from idlelib.iomenu..

    python 디렉토리 생성

    from bs4 import BeautifulSoup #파싱과 파서를 하기위해서 모듈사용 # 운영체제가 기본으로 제공하는 모듈 from os import * # htmlcode = BeautifulSoup("테스트1") # soup = BeautifulSoup("테스트2") # print(htmlcode.prettify()) # print(soup.prettify()) dictory = "html" print(getcwd()) # 현재 파일 경로 mkdir(dictory) # mkdir 디렉토리만들기

    python GUI

    from tkinter import * def abc(): print("test print") root = Tk() root.title("연습 프로그램") # 프로그램 타이틀 이름 root.geometry("500x500") # 가로크기 x 세로크기 root.resizable(True, False) # 가로크기조절여부, 세로크기조절여부 (True : 가능, False : 불가능) btn1 = Button(root, text="클릭", command=abc) # command : 클릭시 함수 호출 btn2 = Button(root, width=10, height=2, text="클릭2") # width=10 == 100px height=2 == 20px btn1.pack() btn2.pack() root...