sto backuppando il mio friendfeed. Sono a pagina 3568.
marco sbarrax frattola,
FFrancesco,
Non sono Bob,
Stefigno,
Haukr,
Smeerch,
MisterQ,
Fabs,
Lilith,
Federico Bolsoman,
Verguenza,
*Chiara*,
corax,
ello fizgherard,
and
zar
liked this
(e non ho capito come mai i messaggi diretti non funzionino, pur avendo letto tutto il doc delle API)
- .mau.
dopo pagina 94 non salva più le immagini, secondo me si sono perse nei server FB :-)
- .mau.
con cosa? io ho fatto girare lo script di Claudio Cicali e per il mio feed ha funzionato. non per il feed delle discussioni temo, ha fatto un json di 2 GB e non sembrava volersi fermare...
- ZUCKERBERG SUCKS! (GePs)
Sospetto dipenda dalla grandezza del feed. Ad esempio a me i DM li ha salvati senza problemi (con la remote key), ma ne ho pochissimi. Feed delle discussioni come GePs: l'ho stoppato dopo 1GB e gli ho dato un limite di pagine, perché mi sono accorto che da un certo punto in poi salvava sempre la stessa. Allora ho provato con qualche stanza: OK con le piccole, stesso discorso delle discussioni con le grandi.
- Osiride
infatti... è arrivato al primo giugno 2009 e poi ha continuato a ripetere la pagina.
- .mau.
però sono comunque due giga prima che si ripeta... mah
- .mau.
quindi anche voi con lo script di Claudio Cicali?
- ZUCKERBERG SUCKS! (GePs)
Ehm, non ritrovo il link. Qualche anima pia me lo passa?
- PaperDoll
Se usi Windows c'è questa guida di beggi http://www.andreabeggi.net/2011... altrimenti questo è il post di Claudio Cicali: https://friendfeed.com/caludio...
- ZUCKERBERG SUCKS! (GePs)
A me si crasha il PC ogni volta che provo a installarlo
- frasens
non so che dirti, lo faccio da linux...
- ZUCKERBERG SUCKS! (GePs)
Quale versione di XAMPP state usando? la 5.5.19 o la 5.6.3?
- Sleepers
5.6.3
- .mau.
comunque la mia impressione è che sia bacato proprio il db di friendfeed, o se preferite che la roba vecchia sia svanita nel nulla. A parte i DM che non si scaricano, ricordo l'anno scorso che si provava a chiamare direttamente le API e il risultato era esattamente lo stesso... più indietro di tanto non si arrivava
- .mau.
ma non eravate arrivati a questa identica conclusione già una decina di volte?
- obe
si spera sempre cambi qualcosa (e che lo script si accorga di stare scaricando sempre la stessa pagina)
- .mau.
Io ho l'impressione che abbiano proprio cancellato alcune tabelle vecchie del db
- reloj
bookmark
- Massimo Morelli
CICALI DOVE SEI?
- frasens
@.mau.: definisca "tanto" in più indietro di tanto, ché voglio verificare una cosa
- m.fisk
Noi qualche tempo fa provammo con lo script di un siriano ma scaricó solo una parte, pensiamo che il resto sia stato cancellato
- Elia Spallanzani
@m.fisk: il mio post più antico sembra essere http://friendfeed.com/puntoma... che (forse non casualmente) arriva da http://friendfeed-api.com/v2.... Insomma può darsi che più di 10000 entry non si vedano.
- .mau.
e in effetti ho cancellato tre entry e ne sono spuntate tre nuove in fondo.
- .mau.
potrei mettermi a cancellare post su post (quelli importati senza commenti) e vedere cosa succede...
- .mau.
i vecchi non vengono fuori, o almeno così è capitato quando ci abbiamo provato
- Elia Spallanzani
mau qual è il massimo di pagine a cui sei arrivato circa? devo impostare il limite per non farlo andare in loop
- Pea Bukowski
chisseloricorda, direi che se metti il limite a 2500 stai sul sicuro. (Anzi, meglio: io non ho nemmeno controllato, quando ho bloccato sono semplicemente andato a cercare il post 10000 con le API, ho aperto con Notepad++ il .json e ho buttato via tutto quello dopo il post.
- .mau.
Come dicevo ieri altrove, ho l'impressione che abbiano fatto qualche pasticcio con le API, perché quello script è in funzione dal 2011 ed è la prima volta che si comporta in questo modo. Nel codice dello script ci sono almeno due controlli per evitare che lo script non termini ma per qualche motivo adesso quei controlli non funzionano. Ci vuole un programmatore con un feed infinito e un po' di buona volontà :)
- Claudio Cicali
Comunque una soluzione è imporre un limite al numero di pagine che scaricate: basta sapere quante pagine avete (o quale sia il numero di pagine limite di FF) e impostare il valore $max_pages all'interno dello script stesso). In quel modo ad un certo punto si ferma di sicuro.
- Claudio Cicali
A me è arrivato a 3500 e passa. L'ho lasciato tutta la notte e si è fermato da solo per "limit excedeed" (di friendfeed, immagino). Ora però non va la parte due, json > html, mi dice che il file è stato creato con una versione non attuale ma l'ho fatto con la 1.2. Se aveste qualche suggerimento ve ne sarei grata [edit: da linux]
- reloj
io non sono riuscito a farlo, se qualcuno mi riesce ad aiutare (mac) ne sarei gratissimo anche io
- fewdayslate
Like di bookmark. Cerco aiuto su Mac pure io.
- Federico Bolsoman
reloj, te lo dice perché il JSON (il file di output) è rotto :( Devo trovare una soluzione, ma devo trovare il minimo caso possibile per simulare il problema... non posso debuggare per tutta la notte...)
- Claudio Cicali
dici un feed per riprodurre il problema velocemente? filter/discussions va in palla quasi subito, dopo 10-15 pagine
- Osiride
Osiride, grazie
- Claudio Cicali
Probabilmente ho corretto (versione 1.5)
- Claudio Cicali
Grazie stasera provo
- Pea Bukowski
Ho provato a scaricare le mie discussioni con la 1.5 Non va piu' in loop, ma mi ha scaricato 1100 post, mente nel mio profilo ho segnalati 5328 commenti e 9951 like
- Angelo Ghigi
Ho provato anche con $stream = "aghigi/comments" e (a me) scarica comunque al massimo 1100 post
- Angelo Ghigi
sembra proprio di sì, grazie. Provato anche con la stanza androidi e si è fermato da sé dopo 101 pagine. La prova del nove col megafeed di Pea.
- Osiride
Angelo, quella è una limitazione di FriendFeed: indietro più di un tot non ti fa andare, a meno che non cancelli qualcosa (vedi i primi commenti in alto). Quantomeno ora salva il salvabile senza andare in loop.
- Osiride
Ok. L'importante e' poter salvare feed e stanzette
- Angelo Ghigi
Grazie, ora provo
- reloj