Bądź: Wyszukaj na stronie z użyciem Google
reklama:

niedziela, 13 lipca 2008

Hacking z cURL w Ubuntu, część 2

Autor: , 09:00, niedziela, 13 lipca 2008


Po pierwszej części artykułu o hackingu w Ubuntu potraficie już napisać skrypt, który stworzy liste i pobierze wszystkie pliki graficzne z podanej strony. Dziś przećwiczymy poznane umiejętności na portalu fotka.pl.

Stworzymy skrypt, który automatycznie pobierze fotkę użytkownika o podanej przez nas nazwie. Operacja ta nie wymaga podawania hasła co znacznie uprości cały zapis.

Pierwsza wersja skryptu wygląda tak:
#!/bin/bash
nazwa_usera=marudazk

curl http://www.fotka.pl/profil/$nazwa_usera/ | grep -o -e 'http://zdjecia.fotka.pl.\{1,20\}\jpg' > $nazwa_usera
wget `cat $nazwa_usera`

Wygląda troche skomplikowanie? Już wyjaśniam. Właściwie nie użyłem żadnych funkcji, o których nie było by w poprzedniej części. Zadeklarowałem jedynie dodatkową zmienną do której przypisujemy nazwę użytkownika, konta marudazk użyłem oczywiście tylko jako przykładu.

Tak więc skrypt na początku do zmiennej nazwa_usera przypisuje wartość marudazk, następnie na stronie profilu użytkownika wyszukuje adresy zawierające linki do zdjęć, aby wreszcie za pomocą polecenia wget `cat $nazwa_usera` pobrać z zapisanego w pliku tekstowym adresu obraz.

Wadą skryptu jest to, że pobierane pliki są przechowywane w folderze domowym co jest nie zbyt wygodne. Aby to zmienić na początku skryptu musimy przejść do innego folderu za pomocą popularnego polecenia cd. Ostatecznie skrypt przybiera więc postać:
#!/bin/bash
nazwa_usera=marudazk
katalog_zapisu='/home/adrian/Pulpit/'

cd $katalog_zapisu
curl http://www.fotka.pl/profil/$nazwa_usera/ | grep -o -e 'http://zdjecia.fotka.pl.\{1,20\}\jpg' > $nazwa_usera
wget `cat $nazwa_usera`
Myślę, że za pomocą tego prostego przykładu uda Wam się lepiej zrozumieć jak działają tego typu skrypty. Metodą małych kroków powoli dochodzimy do coraz ciekawszych, ale i bardziej skomplikowanych efektów. W następnej części zajmiemy się już nowymi zagadnieniami.

Jeśli nie zrozumiałeś tego artykułu zapoznaj się z:
- Podstawy hackingu w Ubuntu, część 1
- Podstawy skryptów
- Pobieranie stron internetowych z Wget
Komentarze 7 comments
Black Marvolo pisze...

urzytkownik.. argh ;/

Artykuł przydatny, tylko dlaczego fotki mamy pobierać akurat z tej kopalni pasztetu?

Adrian pisze...

Fotka.pl to tylko przykład dużego serwisu w którym znajdują się zdjęcia, wiele osób ma tam konta i dzięki temu mogą poznać lepiej ten serwis (też za tego typu stronami nie przepadam). Na pocieszenie napisze, że następnym razem zajmiemy się Last.fm.
Pozdrawiam

Anonimowy pisze...

#Black Marvolo
hakerem to ty nie będziesz... Aczkolwiek jestem i tak pełen podziwu, że zainstalowales linuksa i doszedłeś do tego gdzie jest terminal...
A co do art. to świetna sprawa. nie wpadłem na to że z poziomu basha mozna takie rzeczy robic, zawsze w php upychalem skrypty:(( chyba tez mi sie przyda nieco podstawowej wiedzy;P

Anonimowy pisze...

witam, ja mam problem podczas uruchamiania tego skryptu, wyskakują mi takie błędy ...
http://img520.imageshack.us/my.php?image=fotka1pi9.png
a oto mój plik:
http://img75.imageshack.us/my.php?image=fotka2ue7.png
czy mógłby mi ktoś pomóc ??

Anonimowy pisze...

Jak to zapisać? pliki pythona to .sy a to? ;> skoro podstawy to powinno coś pisać o tym gdzie to wpisać ;]

Anonimowy pisze...

@(31 październik 2008 18:28): Jakkolwiek, wystarczy nadać prawa uruchamiania. To są podstawy podstaw :D Rozszerzenie jest tylko i wyłącznie do łatwego rozróżniania co jest w środku. Możesz nawet nazwać skrypt fota.jpg i odpalić (jeśli nadasz mu prawa: chmod u+x fota.jpg): ./fota.jpg

btw. fotka.pl - kod i treść trzymają ten sam wysoki poziom, wystarczy spojrzeć na to błyskotliwe nazewnictwo z tego reprezentatywnego fragmentu:

$("#trojkacik_zewn").css("border-right","6px solid "+belka_bg);

Anonimowy pisze...

@(27 lipiec 2008 13:50): Zainstaluj curl:
sudo aptitude install curl

Prześlij komentarz


Popularne posty

Etykiety