Block > Fruehjahrsputz
3 min (574 Wörter, 3216 Zeichen)
Inhaltsverzeichnis
Irgendwie ueberkommt mich in unregelmaessigen Abstaenden das
Beduerfnis, meine Website aufzuraeumen, zu vereinfachen - kurz: zu
veraendern.
Dieses Mal waren das einige Sachen, die ich hier mal
aufliste.
Tote Links #
Es fing eigentlich harmlos an, denn ich bin irgendwo ueber einen
Tipp gestossen, mal die eigene Website auf tote Links zu untersuchen.
Also hab ich mal danach gesucht, wie das mit wget
zu bewerkstelligen
ist und habe folgenden Code gefunden:
wget --spider -o ~/wget.log -e robots=off -r -p https://yhaupenthal.org
Ok, das lieferte immerhin nur drei tote Links, die schnell
wiederbelebt wurden. Nicht schlecht 😉
Allerdings hat wget
nur interne Links betrachtet, ich habe aber auch
sehr viele externe Links. Also hab ich weitergesucht und bei
serverfault u.a. checklink gefunden.
Auf Vegane Links angewendet, kam folgendes heraus:
- 5 URLs, auf die durch die
robots.txt
nicht zugegriffen werden konnte - 1 URL, die nicht aufgeloest werden konnte (die ist aber auch geloescht worden, weil die Besitzerin gestorben ist)
- 1 URL mit dem Errorcode 403 (Forbidden)
- 12 URLs mit dem Errorcode 404 (Not Found)
- 1 URL mit dem Errorcode 410 (Gone)
- 6 Redirects
Die Links hab ich daraufhin entweder angepasst oder geloescht.
Aber ich wollte das auch ohne eine Website sprich per lokales Programm machen und hab dann den Linkchecker gefunden:
linkchecker https://yhaupenthal.org
Heraus kam das hier:
Statistics:
Downloaded: 1.69MB.
Content types: 1782 image, 7515 text, 0 video, 0 audio, 16 application, 0 mail and 2860 other.
URL lengths: min=13, max=262, avg=43.
That's it. 12173 links in 1660 URLs checked. 0 warnings found. 6 errors found.
Stopped checking at 2014-04-06 00:35:34+002 (9 minutes, 57 seconds)
Die 6 Errors waren 2 SSL-Fehler (wegen meinem Zertifikat von
CAcert ), 1 Timeout und die 3 obigen toten Links, die ich nur lokal
repariert hatte.
Allerdings wieder keine Errors bzgl. der externen Links … Gnah!
Ok, ich haette die man
page vorher lesen sollen …
Also nochmal:
linkchecker --check-extern https://yhaupenthal.org
Heraus kam dann folgendes:
Statistics:
Downloaded: 1.52MB.
Content types: 1647 image, 9608 text, 0 video, 0 audio, 950 application, 0 mail and 38 other.
URL lengths: min=13, max=262, avg=43.
That's it. 12243 links in 4591 URLs checked. 0 warnings found. 166 errors found.
Stopped checking at 2014-04-06 01:05:20+002 (15 minutes, 17 seconds)
Die 166 Errors waren teilweise nur SSL-Fehler (also z.B. wegen CAcert oder
Mismatch), aber ueberwiegend 404 (also not found).
Leider waren davon auch ziemlich viele im Linkdump, welche dann raus
mussten …
Design #
- Kein Footer mehr
- Die Navigation wurde etwas hoeher gesetzt,
die Linie darunter entfernt, die Schriftgroesse der einzelnen Punkte
vergroessert und die Punkte mit
<ul>
- und<li>
-Tags getrennt written at
undtags
in einem Beitrag wurde eingedeutscht und ans Ende eines jeweiligen Beitrags verschoben- Neues Favicon
- Sauberere Farbwahl (mit agave )
- Die Links besitzen nun nicht mehr das CSS Attribut
visited
- Schoeneres CSS bei
<pre>
und<code>
(angelehnt an Github ) - Das Design ist nun endlich richtig responsive, d.h. passt sich z.B. an mobile Endgeraete an
- Die Hauptseite enthaelt nun meinen Namen als Bild
Sonstiges #
- Es gibt nun einen Feed, der alles enthaelt, was ich so schreibe, also alle Blockeintraege und die Linkdumps: Alles
- Im Hintergrund wurde sehr viel Code aufgeraeumt.
Langfristig will ich den Code, den ich zum erstellen meiner Website benutze, ja auch auf Github publizieren.
TODO #
- Den CSS-Code (und vermutlich auch allen anderen Code) verkleinern, damit meine Website noch schneller laedt
- Dank Heartbleed neue Zertifikate erstellen
- Schoenere/bessere Schrift, im Moment sieht das
i
aus wie einl
… - Neue Beitraege 😉
Beitraginfos
2014-04-12, 16:35:39
2023-09-30, 18:22:59
cleanup,
linkchecker,
neu
Permalink