Strona 1 z 1

bash - pobieranie danych ze stron www

: 08 września 2011, 21:50
autor: rebrov
Witam.

Zagłębiam się dopiero w basha, więc nie za dużo jeszcze wiem. Interesuje mnie mianowicie pobieranie danych ze stron. Mam problem z użyciem komendy grep - nie wiem jak użyć tego w odniesieniu do strony www. Prosze o jakąś pomoc lub wskazówkę, czy wystarczy sam grep czy trzeba użyć jeszcze jakiejś innej komendy

: 09 września 2011, 09:34
autor: Bastian
Kompletnie nie da się zrozumieć o co Ci chodzi. O adres http, czy co? Napisz co chcesz osiągnąć.

: 09 września 2011, 20:00
autor: grzesiek
Witam

Jeżeli chcesz wykonywać jakieś działania tekstowe na stronie www to najpierw musisz ją pobrać, to uczynisz dzięki poleceniu wget.
Gdy stronę HTML będziesz miał już na lokalnym systemie plików, możesz go potraktować jak każdy plik tekstowy.

: 10 września 2011, 12:32
autor: amkrankruleuen
Poczytaj o gniazdach. Dzięki nim będziesz mógł pobierać dane ze strony bezpośrednictwa programu wget.

: 11 września 2011, 10:50
autor: Yampress
Skrypty w perlu się też do tego nadają.

: 11 września 2011, 16:26
autor: markossx
Może biblioteka curl? :D