미국 루이지애나 주의 한 흑인 소작농가에서
일곱 남매 중 하나로 태어난 아이가 있었다.
이름은 풀러.
아이는 다섯 살 때부터 일을 시작해야 했고,
아홉 살이 되자 노새를 몰았다.
소작농의 아이들에게 이는 특별한 일이 아니었다.
그러나 이 아이의 어머니는 이렇게 말했다.
"얘야, 우리가 가난한 것은 절대 당연한 것이 아니야.
우리가 가난한 것은 너희 아버지가 단 한 번도
부자가 되려는 꿈을 가지지 않았기 때문이란다."
이후 풀러는 비누를 팔기 시작했다.
소작일 보다는 빨리 돈을 벌 수 있다고 생각했기 때문이었다.
이후 풀러는 비누회사가
15만 달러에 매각된다는 소식을 들었다.
그는 12년 간 비누를 팔면서
모은 전 재산 2만 5천 달러로
회사 인수계약을 맺었다.
계약금을 건 다음에는 나머지 돈을 지불해야 했다.
열흘 동안 그는 신용과 개인적 친분을 바탕으로
주변사람들에게 돈을 빌렸다.
그래서 마지막 열흘째 되는 날.
돈은 11만 5천 달러까지 모였다.
아직 1만 달러가 부족했다.
그러나, 어디서 빌려야 할지 막막했다.
풀러는 정처 없이 밤 11시에 차를 몰고
시카고 시내 61번가를 달렸다.
그러다가 발견한 한 사무실.
풀러는 무턱대고 그곳으로 들어가서
앉아있던 사장에게 물었다.
"1,000달러 벌고 싶지 않으신가요?"
"물론 벌고 싶소."
"그러면 저에게 1만 달러짜리 수표를 써 주십시오.
상환할 때 이자를 1,000달러 드리겠습니다."
터무니없는 말이었지만,
결국 풀러는 사장을 설득하는 데 성공했고
비누회사를 성공적으로 인수했다.
이후 그는 7개 회사와 신문사를 보유한
대단한 부자가 되었다.
- 류인수 (새벽편지 가족) -
분류 전체보기
- 1만달러의 힘 2013.07.30
- robots.txt 설정하기 2013.07.28
- 회장의 유서 2013.07.19
- 검색엔진 로봇 차단 혹은 해제 방법 2013.07.19
- quick menu 바 2013.07.19
- Mysql table의 AutoIncrement 값을 가져오기 2013.07.09
- 장기려 박사 2013.06.30
- 가평 아침고요수목원 세번째 2013.06.24
1만달러의 힘
robots.txt 설정하기
일부 Naver 고객샌터 인용
로봇 배제 표준이란 말 그대로 웹 문서를 수집해 가는 로봇을 배제한다는 뜻입니다.
로봇의 배제와 관련된 내용을 적어 놓은 robots.txt 파일을 사이트의 최상위 주소
(서버 루트 디렉토리 예:www.naver.com/robots.txt)에 저장하면 됩니다.
(robots.txt를 서브디렉토리에 저장할 경우에는 효력이 없다는 사실에 주의하세요.)
예를 들어, www.yourhost/~mypage 밑에 robots.txt가 있어도 이는 아무런 효력을 갖지 못합니다.
로봇은 오직 루트 디렉토리의 robots.txt만을 참조할 뿐입니다.
로봇의 접근을 어디까지 허용할 것이냐에 따라 robots.txt에 들어가는 내용은 달라집니다.
(robot.txt가 아닌 복수형인 robots.txt 임에 주의해주세요.)
robots.txt 저장 방법 안내
1. 홈페이지 전체가 모든 검색엔진에 노출되는 것을 원하지 않을 때
User-agent: *
Disallow: /
2. 홈페이지 전체가 모든 검색엔진에 노출되기를 원할 때
User-agent: *
Disallow:
(Ex1과 비교했을 때 “/”가 빠져 있습니다. robots.txt를 작성하지 않으면 모두 검색허용으로 간주됩니다.)
3. 홈페이지 디렉토리의 일부만 검색엔진에 노출하고 싶을 때
User-agent: *
Disallow: /my_photo/
Disallow: /my_diary/
(이렇게 작성하면 로봇은 my_photo, my_diary라는 폴더에 속한 웹문서에 접근할 수 없습니다.)
4. 홈페이지 전체가 검색되길 원하지만 특정 검색엔진을 거부하고 싶을 때
User-agent: EvilRobot
Disallow: /
위의 예에서는 “EvilRobot”이라는 이름을 가진 로봇만을 배제하게 됩니다.
('네이버'에 대해서 막고 싶다면 NaverBot을 User-agent로 설정해주시면 됩니다. Naverbot은 네이버 로봇의 이름입니다.)
5. 홈페이지 전체가 검색되길 원하지만 특정 검색엔진에게만 노출되기를 원할 때
User-agent: NaverBot
Disallow:
User-agent: *
Disallow: /
(이 경우 NaverBot만이 웹문서를 수집해갈 수 있습니다.)
“robots.txt”를 작성하는 것과 유사한 방법으로 HTML문서의 (HEAD)와 (/HEAD)태그 사이에
(META NAME="ROBOTS" ConTENT="NOINDEX, NOFOLLOW")라는 메타태그를 추가하면 로봇은 웹 문서를 가져갈 수 없습니다.
이 방법은 다소 번거롭기는 하지만 문서 하나하나에 대해 정확하게 명시를 해주기 때문에
가장 확실하게 로봇의 접근을 막을 수 있는 방법입니다.
로봇 배제에 대한 보다 자세한 내용은 http://www.robotstxt.org 에서 확인할 수 있습니다.
robots.txt를 서버에 저장하고 로봇이 직접 방문하지 않는 경우라고 하더라도 본인의 홈페이지 중 일부 내용
혹은 링크 값이 NAVER 웹 문서 검색 결과에 나타나는 경우가 있을 수 있습니다.
이는 다른 웹 문서들이나 사이트들이 해당 웹 문서를 링크한 경우, 그 링크에 제시된 설명에 의해서 자동적으로 생성되는 것으로,
해당 웹 사이트의 robots.txt의 존재유무나 로봇의 동작과는 무관할 수 있습니다.
--------------------------------------------------------------------
* User-agent : 수집하는 주체의 범위를 정합니다. *으로 설정할 경우 모든 봇의 접근이 격리됩니다.
naver의 경우 봇 이름은 Naverbot입니다. 'User-agent : * '와 같은 꼴로 사용합니다.
* Allow : 뜻 그대로 허락할 디렉토리를 설정합니다.
* Disallow : 뜻 그대로 불허할 디렉토리를 설정합니다. Disallow: 뒤에 아무것도 표시하지 않을 경우에도,
모든 접근을 허락한다는 뜻이 되므로 유의하세요.
만약 모든 디렉토리의 접근을 막고 싶다면 'Disallow: /'와 같이 쓰면 됩니다.
다른 포탈은 모르겠지만 현 한국에서 가장 많이 데이터를 긁어가는 포탈은 네이버 입니다.
하지만 네이버에서도 로봇은 거의 다 막아 놓고 있습니다.
http://blog.naver.com/robots.txt
http://cafe.naver.com/robots.txt
http://kin.naver.com/robots.txt
http://news.naver.com/robots.txt
엄청나게 긁어가는 포탈들의 횡포와 자기 컨텐츠를 지키려는 사람들의 조정자가 될수 있는것이 robots.txt입니다.
문론 robots.txt로 다 막을 수는 없습니다. robots.txt를 무시하는 로봇도 많습니다. 하지만 대부분은 제어가 가능 할것입니다.
'프로그래밍' 카테고리의 다른 글
윈도 하위 디렉토리 삭제하기 (0) | 2022.06.30 |
---|---|
웹 보안 취약점 대응 방안 (0) | 2014.03.25 |
검색엔진 로봇 차단 혹은 해제 방법 (0) | 2013.07.19 |
XSS 기본 방어 방법 (0) | 2013.04.19 |
초대장 필요하신 분 받아가세요. [마감되었습니다.] (15) | 2012.07.09 |
회장의 유서
주한 미국대사(1993-1997)였던
제임스 레이니는 임기를 마치고 귀국하여
에모리대학의 교수가 되었다.
건강을 위해서 매일 걸어서 출퇴근하던 어느 날,
쓸쓸하게 혼자 앉아 있는 노인을 만났다.
레이니 교수는 노인에게 다가가 다정하게
인사를 나누고 말벗이 되어 주었다.
그 후 그는 시간이 날 때마다 외로워 보이는
노인을 찾아가 잔디를 깎아주거나 커피를 함께
마시면서 2년여 동안 교제를 나누었다.
그러던 어느 날 출근길에서 노인을
만나지 못하자 그는 노인의 집을 방문하였고
노인이 전날 돌아가셨다는 것을 알게 되었다.
곧바로 장례식 장을 찾아 조문하면서
노인이 바로 <코카콜라 회장>을 지낸 분임을
알고는 깜짝 놀랐다.
그때 한 유족이
"회장님께서 당신에게 남긴 유서가 있습니다."
라며 봉투를 건넸다.
유서의 내용을 보고 그는 너무나 놀랐다.
"2년여 동안 내 집 앞을 지나면서
나의 말벗이 되어 주고, 우리 집 뜰의 잔디도
함께 깎아 주며, 커피도 나누어 마셨던
나의 친구 레이니! 고마웠어요.
나는 당신에게 25억 달러와 코카콜라
주식 5%를 유산으로 남깁니다."
너무 뜻밖의 유산을 받은 레이니교수!
그는
1. 전 세계적인 부자가 그렇게 검소하게 살았다는 것과
2. 자신이 코카콜라 회장이었음에도 자신의 신분을
밝히지 않았다는 것
3. 아무런 연고도 없는 사람에게
잠시 친절을 베풀었다는 이유만으로
그렇게 큰돈을 주었다는 사실에 놀랐다.
레이니교수는 받은 유산을
에모리대학 발전기금으로 내놓았다. 제임스 레이니가
노인에게 베푼 따뜻한 마음으로 엄청난 부가
굴러 들어왔지만, 그는 그 부에 도취되어
정신을 잃지 않았다.
오히려 그 부를 학생과 학교를 위한 발전기금으로
내놓았을 때, 그에게는 에모리대학의 총장이라는
명예가 주어졌다.
- 김영주 / 정리 -
검색엔진 로봇 차단 혹은 해제 방법
검색엔진이 긁어가는 것 막기 (robots.txt 이용)
검색엔진이 자동으로 긁어가는 것을 막는 방법이다...
단순히 아래의 두 줄을 메모장 등에서 입력하고 파일명을 "robots.txt"로 저장해서 웹서버의 최상단 디렉토리에 올려놓기만 하면 된다.
robots.txt
-----------------------------------------------------------------------------------------------------------
User-agent: *
Disallow: /
--------------------------------------------------------------------------------------------
위의 두줄데로 설정하면 모든 검색엔진에 대해서 모든것을 막는다는 의미이다...
검색엔진별로 노출을 막고자 하면, 아래의 검색엔진별로 선택해서 사용하세요..^^
//모든 검색 엔진 막기
User-agent: *
Disallow: /
//네이버 로봇 막기
User-agent: cowbot
Disallow: /
//구글 로봇 막기
User-agent: Googlebot
Disallow: /
User-agent: Googlebot-Image
Disallow: /
야후 로봇 막기
User-agent: Slurp
Disallow: /
User-agent: Yahoo-MMCrawler
Disallow: /
엠파스봇 로봇 막기
User-agent: empas
Disallow: /
MSN
User-agent: MSNBot
Disallow: /
첫눈
User-agent: 1Noonbot 1.0
Disallow: /
검색엔진이 긁어가는 것 막기 (메타태그 이용법)
이 방법 외에도 html 페이지에 메타태그를 써서 검색엔진을 막을 수 있습니다.
[meta name="robots" content="noindex,nofollow"]
위 소스를 [head] 사이에 넣어주면 됩니다.
구글쪽에서 검색안된다고 메일 올경우는 아래와같이 바꿔주시면 됩니다.
User-agent: *
Disallow: /
User-agent: Googlebot
Disallow:
User-agent: cowbot
Disallow:
User-agent: Googlebot-Image
Disallow:
User-agent: Slurp
Disallow:
User-agent: empas
Disallow:
User-agent: MSNBot
Disallow:
User-agent: 1Noonbot 1.0
Disallow:
robots.txt 가 아닌 소스 하부페이지에서 검색을 차단하고 싶으면
소스 상단에 아래와같이 입력하면 된다.
<META NAME="ROBOTS" CONTENT="NOINDEX, NOFOLLOW" >
[사이트보안] 1편 - 구글이나 네이버등 검색로봇 긁어가기 막는법
구글의 강력한 긁어가기식 로봇 검색으로 울산지역 ㅌ 케이블방송의
가입자현황이 담긴 XLS 파일이 유출되는 사고가 있었습니다.
구글이나 네이버 로봇들이 웹서버들의 인증이 안걸린 디렉토리들을
거의 다 뚫고들어오기때문인데요, 검색어로 "관리자모드"나
"회원명단" 등으로 검색해보면 심심치않게 개인정보들이 나타납니다.
주민번호가 담긴 신경외과협회 회원명단이나 포항시 공무원정보
주민번호등도 엄청나게 나타나기때문에 이런 긁어가기식의 검색 로봇을
사이트관리자로서 차단하는 방법을 찾아보고 소개합니다.
웹사이트 wwwroot 루트디렉토리에 robots.txt 파일을 하나 만듭니다.
내용에
User-agent: *
Disallow: /
라고 하시면 모든 긁어가기 검색에서 제외됩니다.
To allow all robots complete access (몽땅 긁어가기 허락)
User-agent: *
Disallow:
Or create an empty "/robots.txt" file. (빈파일 만들기로 해도 됨)
To exclude all robots from part of the server
(일부분 긁어가기 제외)
User-agent: *
Disallow: /cgi-bin/
Disallow: /tmp/
Disallow: /private/
To exclude a single robot (배드봇이란 검색로봇만 긁어가기 제외)
User-agent: BadBot
Disallow: /
To allow a single robot (웹크롤러 검색로봇만 긁어가기 허락)
User-agent: WebCrawler
Disallow:
To exclude all files except one (한군데 빼고 몽땅 긁어가기 허락)
This is currently a bit awkward, as there is no "Allow" field. The easy way is to put all files to be disallowed into a separate directory, say "docs", and leave the one file in the level above this directory:
User-agent: *
Disallow: /~joe/docs/
위 내용들은 http://www.robotstxt.org 참고하시구요
개인들은 웹페이지의 메타태그에다
META NAME="ROBOTS" CONTENT="NOINDEX, NOFOLLOW"
라고 해서 그 웹페이지를 긁어가기로 부터 보호할수 있습니다.
In a nutshell, when a Robot vists a Web site, say
http://www.foobar.com/, it firsts checks for
http://www.foobar.com/robots.txt. If it can find this document, it will
analyse its contents for records like:
User-agent: *
Disallow: /
'프로그래밍' 카테고리의 다른 글
웹 보안 취약점 대응 방안 (0) | 2014.03.25 |
---|---|
robots.txt 설정하기 (0) | 2013.07.28 |
XSS 기본 방어 방법 (0) | 2013.04.19 |
초대장 필요하신 분 받아가세요. [마감되었습니다.] (15) | 2012.07.09 |
주민번호 알고리즘 (0) | 2012.06.20 |
quick menu 바
<script type="text/javascript" src="http://ajax.googleapis.com/ajax/libs/jquery/1.4.2/jquery.min.js"></script>
<script type="text/javascript">
$(function(){
var currentTop = parseInt($("#quickmenu").css("top"));
$(window).scroll(function() {
$("#quickmenu").stop().animate({"top": $(window).scrollTop()+currentTop+"px"}, 500);
});
});
</script>
- quick menu bar 부분
<div id="quickmenu" style="position:absolute; left:50%; top:100px; width:100px; margin-left:450px;">...</div>
'프로그래밍 > 자바스크립트' 카테고리의 다른 글
jquery radio, select, checkbox (0) | 2013.10.28 |
---|---|
정규 표현식 요약 (0) | 2013.10.02 |
javascript 브라우저 종류 (0) | 2012.11.23 |
자주 쓰이는 JQuery Ajax 예제 (0) | 2011.08.02 |
jQuery 요약 (0) | 2011.08.02 |
Mysql table의 AutoIncrement 값을 가져오기
Table 구조가 아래와 같을때
field(1)
...
field(n)
Key Field를 auto_increment 형태로 하여, Insert를 하던 중
select 문을 이용하여 Where 조건에 key_field 값을 넣었을때, Record가 한개도 존재하지 않는다면, 이경우 이 Data는 원래부터 Insert 되지 않았던 Data였을까? 아니면 Insert후 Delete된 Data일까?
처음엔 간단하게 Max(key_field) 값을 가지고, Key_Field의 Max값보다 작으면 삭제된 데이터,
Key_Field의 Max값보다 큰 값이면, 원래부터 존재하지 않았던 데이터로 구분하면 되지 않을까?
라고 생각했는데, 다시 생각해보니 틀린 생각.
key field | field 1 | ... | key field n |
1 | data | ... | data |
2 | data | ... | data |
3 | data | ... | data |
... | |||
98 | data | ... | data |
99 | data | ... | data |
100 | data | ... | data |
위와 같을때, "select max(key field) from 테이블명"을 하게 되면 100이 나오므로, 정상적인 결과를 얻을 수 있겠지만,
99, 100번 레코드를 삭제한후 "select max(key field) from 테이블명"을 하게되면 max값은 98이 나오므로, 실제로 99와 100번 레코드의 경우는 삭제되었음을 알지 못하고, 이전에 입력이 되지 않았던 데이터로 분류되게 된다.
key Field가 Auto_increment 속성을 가지고 있으므로,
show table status where name = '테이블명' 을 이용하면 해당 Table의 Auto_Increment 값을 확인 할 수 있으므로, 이를 이용하여 처리하면 된다.
어쨌든, 설명이 장황한데.... 결론은 결국 원하는 Table의 Auto_Increment 값을 가져오고자 할때 어떻게 할 것인가? 이므로, 위의 사설은 다 집어치우고,
기억해야할 쿼리는 단 한가지.
'프로그래밍 > php' 카테고리의 다른 글
php 시간 계산 (0) | 2013.08.12 |
---|---|
PHP $_SERVER 정리 (0) | 2013.08.01 |
ORACLE, MSSQL, MYSQL 날짜함수 비교 (0) | 2012.08.08 |
php 한글 연동 시 한글 깨짐현상 복구법 (0) | 2012.07.06 |
php Ajax 한글 처리 (0) | 2012.04.20 |
장기려 박사
좋은 분의 행적을 만나는 건
큰 행운이 아닐 수 없다.
세상에는 말없이 훌륭한 일을 하시는 많은 고마운 분들이 존재한다.
허된 욕망을 버리고 사람이 살아야할 진정한 가치를 전해주는 분들,
그 분들의 행적을 따라 가는 것 역시 큰 행운이겠지.
'향기나는글' 카테고리의 다른 글
1만달러의 힘 (0) | 2013.07.30 |
---|---|
회장의 유서 (0) | 2013.07.19 |
아홉을 가진 사람 (0) | 2013.03.26 |
만나라 사랑할 시간이 없다 (0) | 2013.02.08 |
사랑하는 사람을 위한 기도 - 김옥림 (0) | 2013.02.03 |
가평 아침고요수목원 세번째
'하늘을 사랑한 사람 여행기' 카테고리의 다른 글
계룡산 두번째 (0) | 2014.09.22 |
---|---|
계룡산 첫번째 (0) | 2014.09.22 |
가평 아침고요수목원 두번째 (0) | 2013.06.23 |
가평 아침 고요수목원 첫번째 (0) | 2013.06.23 |
청평 드라이브~ (0) | 2013.05.19 |