Crawling15 Selenium(셀레니움)에서 Element(요소)에 접근하는 방법들 - ( By.XPATH / By.CLASS_NAME / By.ID / By.NAME / By.TAG_NAME / By.LINK_TEXT ) --------------------------------------------------------------------------------------------------------------- # xpath로 접근하기 driver.find_element(By.XPATH, value='xpath값') xpath 로 접근 driver.find_element(By.XPATH, value="xpath값").find_element_by_name('이름') xpath 로 접근한 엘레먼트의 안에 이름이라는 name을 가진 엘레먼트에 접근 driver.find_element(By.XPATH, value="//태그[text()='찾을텍스트']") div_elems = driver.find_elements_by_x.. 2022. 7. 4. Selenium (셀레니움) 설치하기 및 기본 명령어 / 크롬드라이버 자동설치 import selenium from selenium import webdriver as wb from selenium.webdriver.common.keys import Keys from selenium.webdriver.common.by import By from selenium.webdriver.support.ui import WebDriverWait as wait from selenium.webdriver.support import expected_conditions as EC import time driver = wb.Chrome() driver.get(url) driver.implicitly_wait(time_to_wait=10) 값 찾기 2가지 방법 element = driver.find_e.. 2022. 7. 4. 멜론Top 100 실습 ( 구분자와 계층선택자 / element에서 컨텐츠 추출 / for i in range / list 인덱싱으로 .text / DataFrame 생성 / set_index('번호', inplace=True) / DataFrame csv파일 인코딩 저장) / ) ------------------------------------------------------------------------------- result 2022. 7. 4. 크롤링 간단 명령어 정리 1 (requests 라이브러리, BeautifulSoup 라이브러리) import requests as rq from bs4 import BeautifulSoup as bs url="주소" res = rq.get(url) res.text soup = bs(res.text, "lxml") soup=bs(driver.page_source, "lxml") -->>인터넷 드라이버 값을 가져올떄(셀레니움등) --------------BeautifulSoup로 값 가져올때------------------------- soup.select("가져올 값") a= soup.select("가져올 값") b=soup.select("가져올 값") a_list=[] b_list=[] for i in range(len(a)) : a_list.append(a[i].text.strip()) b_lis.. 2022. 7. 1. 이전 1 2 3 4 다음