Ma hanno tolto il limite al numero di entry che si possono esportare? Si può andare indietro all'infinito? Corrono voci...
Maddai… - Braga
Veramente quel messaggio riguardava il fatto che non facesse più crack verso la fine del feed disponibile, ma questo l'avevamo già visto. - Braga
Boh, ho un paio di persone che mi hanno detto che ora sono riusciti ad esportare tutto. Magari non raggiungevano il limite... boh. Non ho provato. - Claudio Cicali
i post e i dm si esportano tutti, i commenti e i like no - Andrea Beggi
Questa mattina avevo provato ad esportare il feed (pubblico) di .mau., e lo copiava fino al 2007, mi pare. - Sleepers
come dicevo di là, Claudio, sono riuscito ad arrivare in fondo, ma potrebbe dipendere dal fatto che ho sempre scritto meno da me e più negli altri feed. Il caso di .mau. mi sembra più significativo :) - Haukr
immagino che nessuno si sia dato alla rogna di provare uno scraping dell'html - Aldo Oldo
mau ha cancellato dei post per riuscire ad arrivare alla fine. Comunque se le pagine esportate sono più di 101 è cambiato qualcosa, sennò tutto come prima. - Osiride
domanda per Claudio o chi sa rispondere: se ho un backup vecchio lo script lo legge e riconosce o bisogna partire da zero? - Aldo Oldo
RTFM: "If the my_ff_stream.json (or whatever name you choose) file already exists, it will be used to know the latest entry already fetched and break the download as soon as it will be reached (sort of incremental backup)" - Aldo Oldo
Beh, non è però questo il caso della discussione: se hai fatto backup una settimana fa, lo script aggiungerebbe l'ultima settimana al backup; non sa se ci sono altri post disponibili dopo la fine che aveva trovato nel run precedente. L'unica soluzione è mettere da parte il file esistente e fare un'estrazione nuova. - Braga
io ho notato che se da web navighi a ritroso (con "older items") prima si fermava a "?start=630", ora continua tranquillamente, ma non basta valorizzare start perché aggiunge un parametro cursor o qualcosa del genere - vic
lo fa solo sui feed individuali, esempio:friendfeed.com/giovanitromboni?start=30&ncursor=d79d383a7451fa96b081f8f620e2976677c7e051b81420f0eaaad06b82d7c5e6735c0a9866c1b720bc51851d8a7f4f07d4e51feded82387e4b94971a193154aeebe3aaf3cde653bfe4631fb93cf441229c48e5e54939a57112f3031b6673521478f24c96bc002c8b - vic
braga sì chiaro, OT sparato - Aldo Oldo
Oggi non ho tempo (e non so se ce l'ha Claudio soprattutto) ma mi pare di ricordare che lo script lavori con il parametro start solamente quindi bisognerebbe studiare questa cosa del ncursor. - Braga
ah per vedere se anche via API viene riconosciuto? Se hanno aggiornato solo la visuale html tocca fare uno scraping. In quel caso il link alla paginata precedente e all'ncursor lo becchi diretto, anche se diventa tutto più macchinoso. - Aldo Oldo
Ho mandato una mail a Benjamin Golub; se riesce a capire il mio fantastico inglesse magari mi risponde anche. - Sleepers
Magari riprovo e vedo - Pea Bukowski
io ho cancellato ma è come se fosse bloccato intorno al 8600 e più in là nella visualizzazione (non nell'export che devo ancora fare) non va. - aurora
Da web si ferma a 600: http://friendfeed.com/search... - Sleepers