Seite 39 von 131
Verfasst: 09.06.2004 08:37
von thompson
vielleicht nimmt der webbi von hier noch dazu stellung. (er hat es hier ja umgesetzt)
hast du den webbi vom abakus mal angeschrieben, damit er das mal evtl. preisgibt ?
denke das ist das paradbeispiel von shorturls (was die adressen angeht vielleicht nicht immer). ebenfalls ist es ein sehr großes forum.
Verfasst: 09.06.2004 11:49
von Wuppi
thompson hat geschrieben:
hast du den webbi vom abakus mal angeschrieben, damit er das mal evtl. preisgibt ?
denke das ist das paradbeispiel von shorturls (was die adressen angeht vielleicht nicht immer). ebenfalls ist es ein sehr großes forum.
Naja .... die urls sehen net so gut aus - nen bissel optik darf man seinem Usern ja wohl gönnen

... aber dort ist auch das problem imt dem viewtopic.php?p's .... dadurch spidert google ein und die selbe Seite mit 2 Namen ... (siehe meine letzten Beiträge) .... von der Theorie her sollte das net so schwer sein umzuändern (statt viewtopic.php?p=1245#1245 halt viewtopic.php?t=123#1245) - zudem hat er diese unnötigen postdays=0&postorder=asc-Unterseiten-Links drin (sind unnötig; auf die Seite kommt man ja auch über die Links die man von der forum123.html bekommt - da kann man die Unterseiten ja auch anspringen; und order hab ich noch nie irgendwo gesehen, da dort was anderes steht) die normalen postorder-seiten bekomm ich weg - nur in verbindung mit highlights hab ich ein kleines denkproblem

...hier werden also auch wieder Seiten mit gleichen Inhalt mit 2 unterschiedlichen Dateinamen gespidert (einmal der dateiname den man über forumsXY.html bekommt und einmal den innerhalb der ftopic's) ... daher würde ich diese Seite auch nicht als Paradebeispiel bezeichnen ...
Bis denne
Wuppi
Verfasst: 09.06.2004 12:14
von Wuppi
Hi
zum "postdays=0&postorder=asc"-Problem:
Suche in der page_header.php
Ersetze:
Statt:
ftopic5676-0-asc-0.html (viewtopic.php?t=5676&postdays=0&postorder=asc&start=0)
sehen die Links nun so aus: ftopic5676-15.html
Also nur noch das t= und start= wird genommen - der rest wird ignoriert.
Das Problem: die erste Seite, wenn man über forums123.html die Seite joind, sieht so aus: ftopic5676.html ... die Seite 2 hat dann ja den Seitenbegrenzer drin (15 z.b. => ftopic5676-15.html) ... die erste Seite innerhalb des ftopic-Bereichs sieht dann aber ftopic5676-0.html aus :/
Jemand ne Idee wie ich die erste Seite IMMER Ohne &start=0 / -0 setzen kann?? ... wie kann ich die per robots.txt aussperren? (disallow: /ftopic ... und weiter?

)
Bis denne
Wuppi
PS: sämtliche Modifikationen in diesem Mod die ich gemacht habe, findet ihr unter
http://www.phpbb.de/topic56605.html
Verfasst: 09.06.2004 23:04
von Wuppi
Hi
einen Ansatz für das "statt viewtopic.php?p=1245#1245 halt viewtopic.php?t=123#1245" Problem (damit man das vernünftig rewriten kann; und nicht noch mehr doppelte Seiten im SuMa-Index drin hat) hab ich jetzt:
viewtopic.php?t=123#1245 <- sowas an Link bekomm ich jetzt hin. Nur was ich übersehen hab: wenn der Post 1245 auf der 3. Seite liegt, klappt dat nicht. In die URL muß also noch die "Seite" rein ...
viewtopic.php?t=123&start=30#1245 (für die 3. Seite; wenn man je 15 Beiträge/Seite hat)
Da brauch ich aber zuarbeit von einem Profi

Wie kann ich das bewerkstelligen? Ist das überhaupt möglich?
Bis denne
Wuppi
Verfasst: 11.06.2004 16:09
von hemfrie
@wuppi
verstehe ich Dich richtig, dass Du die Seitenzahl mit in den Link packen willst? Was ist wenn Google diesen Link spidert und ein paar Tage später hat sich die Seitenzahl geändert? Der Beitrag wäre somit nicht mehr aufrufbar.
Korrigier mich, falls ich gerade auf dem Schlauch gestanden habe. *g*

hemfrie
Verfasst: 11.06.2004 18:25
von Wuppi
hemfrie hat geschrieben:@wuppi
verstehe ich Dich richtig, dass Du die Seitenzahl mit in den Link packen willst? Was ist wenn Google diesen Link spidert und ein paar Tage später hat sich die Seitenzahl geändert? Der Beitrag wäre somit nicht mehr aufrufbar.
Korrigier mich, falls ich gerade auf dem Schlauch gestanden habe. *g*

hemfrie
mhhh irgendwie haste recht

mist ... der Beitrag der heute einer der ersten 30 ist (also Seite 1), kann morgen schon in den Bereich 30-60 gerutscht sein - also 2. Seite. mhhhh
Das stellt das ganze natürlich vor einem Problem
Man muß nen bissel mehr Technik reinbringen

... also vieles umprogrammieren

(hoffe das 2.2 voll SuMa-Freundlich ist!!) ... ne idee ... wir haben doch das #1245 - das ändert sich nicht - und ist immer gleich mit dem p= (hab noch nie p=1255#1245 gesehen!). Man muß den Server dazubringen das #1245 einzulesen ... wenn der Beitrag #1245 nicht mehr auf Seite 1 ist (also nicht mehr p=123, sondern p=123&start=60)), wird der das die URL entsprechend umschreiben - am besten dann mit einem 301-Redirekt per "permantly redirect ... header(location: ...); ) ... dann verschwindet die vermeintlich falsche "Seitenzahl" sauber aus dem Index und wird durch die neue ersetzt

... ok wer codet?

)))))
Warum hat man bei der Entwicklung von Foren nicht auf eine saubere Kompatiblität zu SuMas geachtet? Gibt es überhaupt ein 100% SuMa-Freundliches Forensystem?
Bis denne
Wuppi
Verfasst: 11.06.2004 22:00
von hemfrie
ich hab diese Links bei mir im Forum für Google in folgendes Format umgewandelt:
http://www.xhtmlforum.de/viewtopic5282nr5282.html
Funktioniert super und eine Seitenzahl brauchst Du auch nicht dafür.
Code: Alles auswählen
$urlin=array($prefix . '(?<!/)viewtopic.php\?p=([0-9]*)[#]([0-9]*)"|',);
$urlout=array('"viewtopic\\1nr\\2.html#\\2"',);
Wenn Du mal bei Google schaust
http://www.google.de/search?hl=de&ie=IS ... uche&meta=
dann siehst Du , dass diese Links sehr häufig anzutreffen sind.

hemfrie
Verfasst: 12.06.2004 07:32
von Wuppi
Hi
das umschreiben ist ja kein Problem ... das Problem ist das man auf diese weise 2mal den gleichen Content in google drin hat (mit 2 unterschiedlichen Dateinamen ... einmal der Threadname und einmal der Postname) ... kann mir vorstellen das dieses nicht so gut ist (ggf. kommt noch ein dritter und vierter dazu: viewtopic.php?t bzw. p)
Naja wenn die Threadnamen (ftopic bzw. ehemals viewtopic.php?t=) erstmal genügend in google vorhanden sind, kann man die viewtopic.php in der robots.txt erstmal ausschließend .. klappt zwar net, aber das gewissen ist dann rein *GG*
Bis denne
Wuppi
PS: das beste wäre echt, wenn die 2.2 explizitit für SuMas vorbereiten würden - ohne das was doppelt vorkommt usw.

Die Chance besteht ja noch

...
PPS: die Seitenzahl wäre ja nur nötig wenn ich das Threadformat nehmen würde (t=123; statt das Postformat: p=18923#18923) ... aber hier hab ich ja einen kleinen logikfehler reingebaut

Verfasst: 12.06.2004 12:01
von Dennis63
Das ist doch ganz egal, wenn eine Seite zwei mal bei Google und co gelistet ist. Google z.B. blendet doppelte Seiten einfach aus.
Des weiteren glaube ich (aber ich bin mit der Meinung irgendwie ziemlich alleine) daß Google das ziemlich egal ist und genau so gut die normalen URLs des phpBB's listet.
Mein Grund für die Annahme:
Mein Forum, 19.000 Artikel, 15.000 Suchergebnisse ( = 79% )
http://www.google.de/search?q=site:www.happyforen.de
phpBB, 237.000 Artikel, 44.000 Suchergebnisse ( = 19% )
http://www.google.de/search?q=site:www.phpbb.de
Denn warum ist von phpBB nur ca 19% bei Google gelistet und von meinem Forum ca 79%? Ich habe ein paar (meist selbst geschriebende) optimierungen für Google drinne. Aber nicht die ShortURLs...
Grüße
Dennis
Verfasst: 12.06.2004 12:38
von Wuppi
Hi
mhhh naja wenn jede Seite 2-3mal (mit highlight und div. anderen Varianten vielleicht sogarno 4-5mal) von google gespidert würde, würde ich das als spam werten! .. nicht umsonst sind doch diese Pseudo-Archive Kickgefährdet (weil hier der gleiche Inhalt nur im anderen Format angezeigt wird) ...
Zudem arbeite ich in Short-URLs um, weils besser ausschaut ... ftopic1234.html kann man z.b. gut mündlich Kommunizieren (besser als - "dann schau mal im Forum unter viewtopic.php?t=123" ... wenn dann noch Highlight und sonstiger müll drin hängt, erzählen das viele gleich komplett mit - weil sie es für wichtig halten (schon oft mitbekommen))
Naja ich hab mir zum Ziel gesetzt, soviel wie möglich in den Index zu bekommen - ohne dupletten ...
Noch nen Edit: Natürlich gibt es mehrere Methoden seine Seiten in den Index zu bekommen - Short-URLs, Keine Session-IDs, Sitemap, Archiv (wäre bei mir mittlerweile auf der Bannliste), spezielle SuMa-Version - und ich für meinen Teil hab die Short-URLs + Keine sIDs gewählt - und das heißt es jetzt zu verfeinern ...
@Dennis: wie ich sehe, sind bei dir die Session-IDs noch drin - lässte google auf ne Session-ID-Freien Seite crawlen? Oder welche Methode nutzt du?
Bis denne
Wuppi