Abload? (Backup Projekt-G)

Der chaotische Hauptfaden

Moderatoren: Heaterman, Finger, Sven, TDI, Marsupilami72, duese

Antworten
Benutzeravatar
Hansele
Beiträge: 3746
Registriert: So 11. Aug 2013, 15:15
Wohnort: Bw
Kontaktdaten:

Abload? (Backup Projekt-G)

Beitrag von Hansele »

Hi zusammen,

ich wollte gerade ein paar Bildchen hochladen für den dieswöchigen Projekt-G Bericht,
oha Upload deaktiviert?

Letzte Woche war am Wochenende krankheitsbedingt nichts los, war das da auch schon?

Die Kameraden machen ja schon länger rum mit Spenden etc. vielleicht ist das nun das Ende?


Nun stelle ich mir noch die Frage wie ich sinnvoll das Projekt-G backuppen kann, ohne Bilder wäre das ja witzlos.
Als PDF speichern?

Oder kann man irgendwie den Faden hier komplett mit Inhalten downloaden und als HTML oder so ausgeben?

Danke und Gruß
Pascal
Benutzeravatar
Chemnitzsurfer
Beiträge: 7858
Registriert: So 11. Aug 2013, 14:10
Wohnort: Chemnitz (OT Hutholz)
Kontaktdaten:

Re: Abload? (Backup Projekt-G)

Beitrag von Chemnitzsurfer »

Hatte mal 2019 den Faden vor dem Umzug von not so greatnet zum Indianerhäuptling in Handarbeit als PDF gespeichert (3,5 GB)
https://drive.google.com/file/d/1IV0P2H ... sp=sharing
die letzten 4 Jahre müsstest du dir dann mal selbst herunterladen (hatte es damals jede Seite in Druckansicht geöffnet und mit nem PDF Tool anschließend zusammengefügt)
lightwave
Beiträge: 321
Registriert: Do 22. Okt 2020, 22:30
Wohnort: Bad Aibling

Re: Abload? (Backup Projekt-G)

Beitrag von lightwave »

ggfs. mit httrack möglich
Benutzeravatar
Hansele
Beiträge: 3746
Registriert: So 11. Aug 2013, 15:15
Wohnort: Bw
Kontaktdaten:

Re: Abload? (Backup Projekt-G)

Beitrag von Hansele »

Chemnitzsurfer hat geschrieben: So 10. Dez 2023, 09:32 Hatte mal 2019 den Faden vor dem Umzug von not so greatnet zum Indianerhäuptling in Handarbeit als PDF gespeichert (3,5 GB)
https://drive.google.com/file/d/1IV0P2H ... sp=sharing
die letzten 4 Jahre müsstest du dir dann mal selbst herunterladen (hatte es damals jede Seite in Druckansicht geöffnet und mit nem PDF Tool anschließend zusammengefügt)
Ja das File habe ich noch als Backup, habe die letzten Seiten alle auch mal noch gesichert,
die ersten 10 habe ich sogar mal irgendwann ausgedruckt. :twisted:

Ich habe auch mal noch eine Weile gegoogelt aber da findet sich auch nichts in die Richtung,
erste Versuche mit httrack waren auch noch nicht erfolgreich.
Dafür muss ich aber auch mal in einer ruhigen Minute ranhocken und alles in Ruhe lesen und probieren.

Wenn ich was gutes hinbekomme, lasse ich es euch wissen.
Grüßle
Benutzeravatar
Finger
Administrator
Beiträge: 7485
Registriert: Di 12. Jun 2012, 20:16
Kontaktdaten:

Re: Abload? (Backup Projekt-G)

Beitrag von Finger »

Gibt es ein Plugin für PhpBB? Kann da mal jemand nachschauen?
Benutzeravatar
Marsupilami72
Beiträge: 2879
Registriert: Mo 4. Nov 2013, 23:48
Wohnort: mittendrin

Re: Abload? (Backup Projekt-G)

Beitrag von Marsupilami72 »

Es gibt zumindest ein Plugin, mit dem Nutzer selbst die Anzahl der Posts pro Seite einstellen können:

https://www.phpbb.com/customise/db/exte ... _per_page/

Damit könnte man kurzfristig die Anzahl so erhöhen, dass alles auf einer Seite angezeigt wird, und das dann als PDF ausdrucken.
Benutzeravatar
Finger
Administrator
Beiträge: 7485
Registriert: Di 12. Jun 2012, 20:16
Kontaktdaten:

Re: Abload? (Backup Projekt-G)

Beitrag von Finger »

Soll ich das mal installieren? Ich muss ja eh noch beim Wiki bei....
Benutzeravatar
audi
Beiträge: 281
Registriert: Mi 14. Aug 2013, 22:46

Re: Abload? (Backup Projekt-G)

Beitrag von audi »

Finger hat geschrieben: Di 12. Dez 2023, 11:25 Soll ich das mal installieren? Ich muss ja eh noch beim Wiki bei....
Fände ich gut, da ich auch manchmal gerne einen Thread archiviere. Danke!!
Benutzeravatar
Hansele
Beiträge: 3746
Registriert: So 11. Aug 2013, 15:15
Wohnort: Bw
Kontaktdaten:

Re: Abload? (Backup Projekt-G)

Beitrag von Hansele »

Finger hat geschrieben: Di 12. Dez 2023, 11:25 Soll ich das mal installieren? Ich muss ja eh noch beim Wiki bei....
Ohjaa das fände ich super!
Benutzeravatar
Hansele
Beiträge: 3746
Registriert: So 11. Aug 2013, 15:15
Wohnort: Bw
Kontaktdaten:

Re: Abload? (Backup Projekt-G)

Beitrag von Hansele »

Finger hat geschrieben: Di 12. Dez 2023, 11:25 Soll ich das mal installieren? Ich muss ja eh noch beim Wiki bei....
Hi Chris,

hast du schon Neuigkeiten ob das mit dem Plugin hier funktioniert?

Danke und Gruß
Pascal
Benutzeravatar
Finger
Administrator
Beiträge: 7485
Registriert: Di 12. Jun 2012, 20:16
Kontaktdaten:

Re: Abload? (Backup Projekt-G)

Beitrag von Finger »

Installiert ist es, probiert das mal aus bitte.
Benutzeravatar
Hansele
Beiträge: 3746
Registriert: So 11. Aug 2013, 15:15
Wohnort: Bw
Kontaktdaten:

Re: Abload? (Backup Projekt-G)

Beitrag von Hansele »

HI,

danke schonmal vor ab, ich bin aber offenbar zu doof.
Ich finde da keinerlei Einstellung dazu, nicht im Thread und auch nicht im Profil.
Oder liegt das am Style proflat_black?

Danke und Gruß
Pascal
Benutzeravatar
Finger
Administrator
Beiträge: 7485
Registriert: Di 12. Jun 2012, 20:16
Kontaktdaten:

Re: Abload? (Backup Projekt-G)

Beitrag von Finger »

Mist. In der Installationsnaleitung gubt es noch diesen Punkt:
Set up and configure this extension by navigating in the ACP to Overview -> Post settings.
Den wiederrum hab ICh noch nicht gefunden. Kann mir da mal jemand auf die Sprünge helfen? Wo finde ich das?

Quelle: https://github.com/Elsensee/phpbb-ext-posts-per-page
Benutzeravatar
Finger
Administrator
Beiträge: 7485
Registriert: Di 12. Jun 2012, 20:16
Kontaktdaten:

Re: Abload? (Backup Projekt-G)

Beitrag von Finger »

So, hier:
Clipboard01.jpg
Achtung: Dieser Wert ergibt gigantische Ladezeiten, mit Vorsicht verwenden! 0 setzt auf Standardwert zurück.
Benutzeravatar
Hansele
Beiträge: 3746
Registriert: So 11. Aug 2013, 15:15
Wohnort: Bw
Kontaktdaten:

Re: Abload? (Backup Projekt-G)

Beitrag von Hansele »

Hi,

erstmal vielen Dank :-).

Die Ladezeit geht sogar, laut DEV Tools ca. 75 Sekunden in Summe.
Interessanter wird es jetzt eine PDF daraus zu ziehen, dass schafft mein Rechner wohl nicht.

Aber jetzt ist der Ball bei mir, ich spiele mal rum, ansonsten gibt es halt mehrere PDF.

Wobei PDF ja nur eine Notlösung ist, am liebsten würde ich das Ding als HTML speichern,
dieser Versuch läuft gerade.

Ggf. könnte ich die Inhalte so irgendwann fast mit copy&paste in eine Homepage schieben.

Gruß Pascal
Benutzeravatar
Finger
Administrator
Beiträge: 7485
Registriert: Di 12. Jun 2012, 20:16
Kontaktdaten:

Re: Abload? (Backup Projekt-G)

Beitrag von Finger »

STRG-S im Browser speichert dir das als HTML, das sollte gehen (zumindest FF und Opera können das).
duese
Beiträge: 6101
Registriert: So 11. Aug 2013, 17:56

Re: Abload? (Backup Projekt-G)

Beitrag von duese »

Das speicher normalerweise keine verlinkten Dokumente mit. Es gibt aber Tools, die Komplette Websites runterladen. Gffs. auch mit den darauf verlinkten Seiten bis zu einer bestimmten Tiefe. Zuletzt hab ich das glaube ich mit wget auf der Konsole gemacht. Mit "Website herunterladen" sollte man bei Google aber auf jeden Fall einen Weg/Tool finden.
Benutzeravatar
Finger
Administrator
Beiträge: 7485
Registriert: Di 12. Jun 2012, 20:16
Kontaktdaten:

Re: Abload? (Backup Projekt-G)

Beitrag von Finger »

Ich habs mal getestet. Hansele erzeugt mit dem G etwa 1GB Kontent :mrgreen:
duese
Beiträge: 6101
Registriert: So 11. Aug 2013, 17:56

Re: Abload? (Backup Projekt-G)

Beitrag von duese »

Ziehe meinen Einwand zurück. Als ich es das letzte mal probiert hab, haben die Browser wirklich nur die html gespeichert. Jetzt geht das ganze Paket.
Benutzeravatar
ProgBernie
Beiträge: 593
Registriert: Fr 16. Sep 2022, 21:59
Wohnort: Zwischen Hamburg und Haiti ^W Lübeck

Re: Abload? (Backup Projekt-G)

Beitrag von ProgBernie »

Man kann auch HTTrack nehmen. Damit kann man auch ganze Webseiten ziehen inkl. der (lokalen) Links, die werden dann auch lokal lauffähig gemacht. In diesem Falle würde man auf den einen Thread begrenzen und kann dann auch ohne Klimmzüge wie "alles auf einer Seite" spiegeln. Die Seite sieht dann auf der eigenen Platte weitgehend wie im Original aus. Damit habe ich schon >250GB gezogen.
https://www.httrack.com/
Benutzeravatar
mrxyz
Beiträge: 331
Registriert: Mo 12. Aug 2013, 17:48

Re: Abload? (Backup Projekt-G)

Beitrag von mrxyz »

Demnächst (30.06.24) wird Abload komplett offline gehen:
https://abload.de/
Benutzeravatar
Finger
Administrator
Beiträge: 7485
Registriert: Di 12. Jun 2012, 20:16
Kontaktdaten:

Re: Abload? (Backup Projekt-G)

Beitrag von Finger »

Das ist für Hanseles Faden natürlich total scheisse. Habt ihr kreative Ideen, das hier zu retten? Bitte um Vorschläge!
Benutzeravatar
Hansele
Beiträge: 3746
Registriert: So 11. Aug 2013, 15:15
Wohnort: Bw
Kontaktdaten:

Re: Abload? (Backup Projekt-G)

Beitrag von Hansele »

mrxyz hat geschrieben: Mo 22. Apr 2024, 07:48 Demnächst (30.06.24) wird Abload komplett offline gehen:
https://abload.de/

Ohhh nein, wobei ich damit leider schon gerechnet habe.
Jetzt wird es wohl final Zeit sich mit dem Backup zu beschäftigen.

Leider war bisher das ganze nicht so erfolgreich, ich denke da wird wohl Handarbeit nötig sein.

Außer einer von euch hat noch eine gute Idee, der Ausdruck des Fadens als PDF ist zwar besser als nichts,
aber irgendwie auch nicht das gelbe vom Ei.

Grüßle
MSG
Beiträge: 2208
Registriert: Fr 9. Nov 2018, 23:24
Wohnort: Nähe Dieburg

Re: Abload? (Backup Projekt-G)

Beitrag von MSG »

Hm, man könnte versuchen mit wget zumindest die erste Ebene der externen Links zu sichern... Dann wären die Bilder da.
Benutzeravatar
Hansele
Beiträge: 3746
Registriert: So 11. Aug 2013, 15:15
Wohnort: Bw
Kontaktdaten:

Re: Abload? (Backup Projekt-G)

Beitrag von Hansele »

Hmm, ich habe eine Idee, habe diese auch kurz in Notepad quergecheckt.

Frage:
Ist es möglich meine Posts aus der Datenbank in der Form zu exportieren wie ich diese in der Editieransicht sehe?
(ggf. mit Datum und Zeit Stempel)
Dann würde ich das ganze einfach in ein Textfile kippen und per Massenänderung auf HTML anpassen.

Im Anschluss die lokale HTML laden mit den Bildern von Abload.de und dann als HTML-File mit Chrome sichern,
dann sollte doch eine lokale HTML rauskommen mit der ich ein Backup habe.
Ggf. könnte ich diese dann sogar recht einfach hosten, es müsste ja nur der Pfad ergänzt werden, wo die Bilder/Files dann liegen.


Falls nicht, weiß ich was ich die nächsten Abende tun muss :-).
nero
Beiträge: 738
Registriert: Mo 12. Aug 2013, 11:58
Wohnort: Oberbayern

Re: Abload? (Backup Projekt-G)

Beitrag von nero »

ich sichere grad per httrack. mal schauen ob da alles externe runter kommt, oder ob abload oder sonstwas nach zu vielen verbindungen zu macht.
Benutzeravatar
Sunset
Beiträge: 1516
Registriert: Fr 6. Dez 2013, 15:19

Re: Abload? (Backup Projekt-G)

Beitrag von Sunset »

Man könnte ein kleines Python Script schreiben und unter Benutzung eines WebScrapers wie z.B. BeautifulSoup sowohl den Text als auch die Bilder lokal sichern. Der Code ist noch nicht getestet:

Code: Alles auswählen

import requests
from bs4 import BeautifulSoup

# Define forum URL, thread ID, and starting page
forum_url = "https://fingers-welt.de/phpBB/"
thread_id = 2276
start_page = 1

# Loop through pages until no more images are found
while True:
    # Construct the URL for the current page
    page_url = f"{forum_url}/viewtopic.php?t={thread_id}&start={start_page}"

    # Send a GET request to the page URL
    response = requests.get(page_url)

    # Check if the request was successful
    if response.status_code == 200:
        # Parse the HTML content
        soup = BeautifulSoup(response.content, 'html.parser')

        # Find all posts on the current page
        posts = soup.find_all('div', class_='post')

        # Process each post
        for post in posts:
            # Extract post ID
            post_id = post['id'].split('_')[-1]

            # Extract post author
            author_element = post.find('a', class_='username-link')
            if author_element:
                author = author_element.text
            else:
                author = "Unknown"

            # Extract post text
            post_text_element = post.find('div', class_='bbcode-container')
            if post_text_element:
                post_text = post_text_element.text.strip()
            else:
                post_text = ""

            # Save post text to a file
            with open(f"post_{post_id}.txt", 'w') as f:
                f.write(f"Author: {author}\n\n{post_text}")

            # Find all image tags within the post
            image_tags = post.find_all('img')

            # Download each image and save it with the original filename
            for image_tag in image_tags:
                image_url = image_tag['src']
                filename = image_url.split('/')[-1]  # Extract filename from URL

                # Download the image and save it
                image_data = requests.get(image_url).content
                with open(f"post_{post_id}_{filename}", 'wb') as f:
                    f.write(image_data)

                print(f"Downloaded image: post_{post_id}_{filename}")

        # Check if there are more pages
        next_page_button = soup.find('a', text='Nächste')
        if not next_page_button:
            break

        # Increment page number for next iteration
        start_page += 1
    else:
        print(f"Error: Failed to fetch page {start_page}. Status code: {response.status_code}")
        break
nero
Beiträge: 738
Registriert: Mo 12. Aug 2013, 11:58
Wohnort: Oberbayern

Re: Abload? (Backup Projekt-G)

Beitrag von nero »

1gb zip: https://mega.nz/folder/IGVB2CoY#v_yukMaOcZkjQ7oK9pbCQw

Aus irgendeinmal Grund sind ie letzen paar Bilder, die auf diesem server liegen, nicht mit geladen worden. gibts da ein zugriffslimit?
Aber von Seite 1 bis 32 scheint alles da zu sein, bis auf paar winzige Fehler, die aber nun mal so auch schon im Forum sind.
Und die stylesheets musste ich manuel runterladen. weis nicht was die von phpbb da geraucht haben.

Achso: browsen von der index.html aus. zur nächsten seite: zurück -> nachste seite im index.html klicken. In den seiten weiterklicken scheint manchmal zu gehen, tuts aber nicht. ich hab nur bis l1 gebackupt, also keine tieferen verlinkungen.
Antworten