bash - pobieranie danych ze stron www

Potrzebujesz pomocy z C, C++, perl, python, itp.
rebrov
Posty: 6
Rejestracja: 08 września 2011, 21:41

bash - pobieranie danych ze stron www

Post autor: rebrov »

Witam.

Zagłębiam się dopiero w basha, więc nie za dużo jeszcze wiem. Interesuje mnie mianowicie pobieranie danych ze stron. Mam problem z użyciem komendy grep - nie wiem jak użyć tego w odniesieniu do strony www. Prosze o jakąś pomoc lub wskazówkę, czy wystarczy sam grep czy trzeba użyć jeszcze jakiejś innej komendy
Awatar użytkownika
Bastian
Member
Posty: 1424
Rejestracja: 30 marca 2008, 16:09
Lokalizacja: Poznañ

Post autor: Bastian »

Kompletnie nie da się zrozumieć o co Ci chodzi. O adres http, czy co? Napisz co chcesz osiągnąć.
Awatar użytkownika
grzesiek
Junior Member
Posty: 932
Rejestracja: 06 stycznia 2008, 10:41
Lokalizacja: Białystok

Post autor: grzesiek »

Witam

Jeżeli chcesz wykonywać jakieś działania tekstowe na stronie www to najpierw musisz ją pobrać, to uczynisz dzięki poleceniu wget.
Gdy stronę HTML będziesz miał już na lokalnym systemie plików, możesz go potraktować jak każdy plik tekstowy.
amkrankruleuen
Posty: 24
Rejestracja: 10 listopada 2009, 17:20
Lokalizacja: Kielce

Post autor: amkrankruleuen »

Poczytaj o gniazdach. Dzięki nim będziesz mógł pobierać dane ze strony bezpośrednictwa programu wget.
Awatar użytkownika
Yampress
Administrator
Posty: 6400
Rejestracja: 09 sierpnia 2007, 21:41
Lokalizacja: PL

Post autor: Yampress »

Skrypty w perlu się też do tego nadają.
Awatar użytkownika
markossx
Beginner
Posty: 489
Rejestracja: 26 maja 2007, 16:01
Lokalizacja: Polska

Post autor: markossx »

Może biblioteka curl? :D
ODPOWIEDZ